SEが最近起こったことを書くブログ

ITエンジニアが試したこと、気になったことを書いていきます。

2023年7月24日の週に気になった記事などまとめ

エンジニアはLLMとどう付き合うか / How engineer get along with LLM

speakerdeck.com

  • ロジカルにできることをLLMでやらない
    • LLMを使わない言語処理で対応できる部分はロジカルに
    • チャットでも入力を一旦ロジカルに判定
  • プロンプトはコードと分けて管理する

OpenAI API サンプルコード・ラッパーまとめ

zenn.dev

  • OpenAI APIを利用するサンプルコードのまとめ記事

機械学習を「社会実装」するということ 2023年7月版

speakerdeck.com

  • 機械学習を「社会実装」する際に待ち受けている罠と、その解決方法の考察 (2023年7月版) です

大規模言語モデル時代のHuman-in-the-Loop機械学習

speakerdeck.com

  • Human-in-the-Loop機械学習とは
    • 人間を参加させて、より良い機械学習モデルを学習する
  • Human-in-the-Loop機械学習の実例と課題が説明されている

開発チーム作成ガイドを公開します

blog.cybozu.io

  • タスクの成果と人の成果の両立はチーム活動の結果として得られる
  • チームの設計を整えないままチームワークを頑張ってもチームの効果は大きくならない
  • 効果的に機能するチームの特徴の独立性
    • チーム外への依存は最小限で、チーム内で意思決定から業務遂行まで完結できる

【勉強メモ】RetNet: 大規模言語モデル用の Transformer の後継について説明 RetNet: A Successor to Transformer for Large Language Models Explained

note.com

  • RetNetは、従来のTransformerとリカレントニューラルネットワーク、そしてスライディングウィンドウ注意を組み合わせる新しいモジュール「retention」を使用している
    • RetNetのすごいところは、訓練(学習)するときも、文章を解釈するときも、とても効率的に動作するという点

Japanese MiniGPT-4: rinna 3.6bとBLIP-2を組み合わせてマルチモーダルチャットのモデルを作る

zenn.dev

  • japanese-gpt-neox-3.6bを用いたマルチモーダルチャットの取り組みについての紹介

ChatGPT の仕組みを理解する(前編)

tech-blog.abeja.asia

  • 自然言語の基礎から Transformer → GPT-3 → GPT-3.5 までを説明した記事

ChatGPT の仕組みを理解する(後編)

tech-blog.abeja.asia

  • 強化学習の基礎から PPO までを説明し、InstructGPT → ChatGPT を説明する記事

ブレインパッド社員が投稿したQiita記事まとめ(2023年2月~6月、OpenAI、ChatGPT、LangChainほか)

blog.brainpad.co.jp

  • 023年2月~6月に投稿されたQiita記事

LLM評価ライブラリ Lang de chat(ラング・ド・シャ)

github.com

  • 日本語LLMモデルの性能や日本語プロンプトによるLLMの性能評価を行うライブラリ

画像を用いた論文解説の可能性

speakerdeck.com

  • 論文中の画像情報も活用して論文解説する手法
  • 画像情報は、物体検出して、図の情報とキャプションを用いて、論文解説を行う
    • 図とキャプションのセットは最適輸送問題を解き、ペアを見つける
  • チャートの読みとりには、Google開発のPix2StructモデルDePlotを利用している