SEが最近起こったことを書くブログ

ITエンジニアが試したこと、気になったことを書いていきます。

2023年10月2日の週に気になった記事などまとめ

GPT-4などのLLMが「AはB」から「BはA」を導かない『逆転の呪い』における誤解なき解釈と対策

aiboom.net

  • ある教師データによって示された事実を別の角度から言い換えることはできない逆転の呪いの事象を説明した論文の紹介
    • 逆転の呪いへの対処法についても記載されている

GPT-4、Bard、Claude2などの異なるLLMが円卓を囲み議論した結果の回答は品質が高いとの検証報告。円卓ツールも公開

aiboom.net

  • GPT-4、Bard、Claude2などの異なる大規模言語モデル(LLM)が円卓を囲んで議論すると、より高精度な回答が得られることが研究された
  • ツールはGitHubで公開されている

Stable LM 3Bのご紹介: 持続可能で高性能な言語モデルスマートデバイス

ja.stability.ai

  • ハンドヘルドやラップトップなどの携帯デジタル機器上で動作するように設計されたコンパクトな言語モデル「Stable LM 3B 」が公開された
  • モデルはベースモデル
  • CC-By-SA4.0ライセンスで公開されている

筋肉ですべてを解決する人のプログラミング上達方法

note.com

  • すごいエンジニアの学び方のメソッドについて
  • まず、自分が何が遅いかを把握しないといけない

AWS ECSを用いた物体検出サービスの開発

tech.preferred.jp

  • MMDetection を利用した物体検出モデル(Object Detection)をWeb Serviceとしてデプロイする際に直面した問題をどのように解決したかを紹介した記事
  • 個人的に印象的だったこと
    • ECSでGPUを利用できるEC2インスタンスを用意する場合は、amzn2-ami-ecs-gpu のようにECS対応のCUDA環境などが準備されたAMIを利用すればよい

HuggingFace Transformers の チャットモデルテンプレート を試す

note.com

  • チャットモデルテンプレート」はチャットモデルのメッセージの書式は、モデルによって様々である問題を解決する

hppRC/simple-simcse-ja

github.com

  • SimCSEをベースに多様な事前学習済み言語モデル・訓練データセット・ハイパーパラメータで訓練を行い、実験の結果選定された設定でfine-tuningを行った、事前学習済みの日本語文埋め込みモデルが4つ公開された
  • SimCSEでファインチューニングする場合にベースとして選ぶべきモデル、利用すべきデータセットが公開されている

OpenAI Python SDKの1.0がプレビューされている

github.com

  • 以下のような大きな変更があるため、注意が必要

リポジトリ全体のコーディング作業を一気に自動編集する生成AI「CodePlan」 米Microsoftが開発

www.itmedia.co.jp

  • 単なる一部のコード編集にとどまらず、リポジトリ全体のコーディング作業を計画的に自動編集するための大規模言語モデル(LLM)を使用したフレームワークを提案する研究報告を紹介する記事

AutoGen

qiita.com

  • LLM,ツール,人間を統合できるLLMフレームワークや最適なコストで推論能力を向上させるチューニングの機能などがあるOSSの紹介記事

Function CallingがFineTuningに対応した

platform.openai.com

  • Finetuningに完全な関数定義が存在しない場合も同様の応答を取得できるようになる
    • 関数とパラメータの説明を省略
    • パラメータを省略
    • 関数を省略
  • 関数呼び出しの正確性を高める

生成AI・LLMのツール拡張に関する論文の動向調査 2023年9月版

blog.brainpad.co.jp

  • ACL2023にて行われたRetrieval based言語モデルチュートリアル講演で紹介された論文から2本、加えてSNS等で話題になった最新の技術論文を2本選んで紹介した記事