- Azure OpenAI Service を検証目的で使い始めるまでにやったことまとめ
- AWS侵入テストのドキュメントが更新されているので確認する
- 【AI】生成AIを利用する場合に気を付けなければならない著作権の知識
- [輪講資料] LoRA: Low-Rank Adaptation of Large Language Models
- LangChainでChain内のプロンプトも含めた消費トークンを取得する方法
- AI系の研究・開発に関する情報収集元を紹介
- 大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス
- Introducing Azure OpenAI Code Repository: Your Gateway to Harnessing the Power of Generative AI
- Building LLM applications for production
- Azure OpenAI Developers セミナー
- 0421DS協会_ChatGPTによって描かれる未来とAI開発の変遷.pdf
- 生成AIの猛烈な進化と著作権制度~技術発展と著作権者の利益のバランスをとるには~
- LangChainの新機能Contextual Compression Retrieverを試す
Azure OpenAI Service を検証目的で使い始めるまでにやったことまとめ
- Azure利用申請前に確認したことや利用のためにルール化したことのまとめ
- Azure OpenAI Serviceの利用申請方法について詳細に記載されている
AWS侵入テストのドキュメントが更新されているので確認する
- 2023/1/8 ~ 2023/1/15の間で更新があったAWS侵入テストドキュメントの変更点の説明
【AI】生成AIを利用する場合に気を付けなければならない著作権の知識
- 生成AIを利用する上で気を付ける必要がある著作権について述べられている
- 以下の4つの段階に分けて記載されている
- ①大規模言語モデル(LLM)を作成する段階
- ②特定の分野のデータを学習させて作成する段階(ファインチューニング)
- ③ユーザがプロンプトを入れる段階(ChatGPTだとチャットの入力)
- ④プロンプトに基づいてAIがアウトプットを出力する段階
[輪講資料] LoRA: Low-Rank Adaptation of Large Language Models
- パラメータを固定した事前学習済みモデルに対して、ごく少数のパラメータからなる低ランク行列を導入・学習することで、モデル全体のfine-tuningと同等の性能を発揮できる手法であるLoRAと、その論文について分かりやすく解説されている
LangChainでChain内のプロンプトも含めた消費トークンを取得する方法
- LangChainでConversationChainなどライブラリ側で用意されているプロンプトを利用する場合にどの程度のトークンが消費されているかを把握する方法の説明
- callbackを受け取る関数を利用する
AI系の研究・開発に関する情報収集元を紹介
株式会社松尾研究所の方の情報収集元の紹介記事
大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス
Introducing Azure OpenAI Code Repository: Your Gateway to Harnessing the Power of Generative AI
- Azure OpenAI を使用して革新的なソリューションを作成できるようにするコード サンプル、ソリューション ガイド、リファレンス アーキテクチャを含むクックブックであるAzure OpenAI Code Samples Repositoryの紹介
Building LLM applications for production
以下について記載された記事
- LLMアプリケージョンを作成する際の主な課題とソリューション
- 制御フローを使用して複数のタスクを構成し、強力なアプリケーションツールを組み込む方法
- LLMを構築した企業の有望なユースケースとどのように小さなタスクから構築するか
Azure OpenAI Developers セミナー
- Azure OpenAI Service の最新のアップデート情報、開発手法、応用開発、ソリューションアーキテクチャを紹介した動画
0421DS協会_ChatGPTによって描かれる未来とAI開発の変遷.pdf
- GPTの全体像からAzure OpenAI Service、GPTシステムの開発まで記載された資料
生成AIの猛烈な進化と著作権制度~技術発展と著作権者の利益のバランスをとるには~
LangChainの新機能Contextual Compression Retrieverを試す
- Contextual Compression RetrieverはベクトルDBなどから抽出した情報の評価を行い、更にLLMsを利用して余計な情報を圧縮することで情報量の改善も行うことができる仕組み