- SageMaker での LLM Instruction Tuning
- GPT-4登場以降に出てきたChatGPT/LLMに関する論文や技術の振り返り
- JP Language Model Evaluation Harness
- 「大規模言語モデル(LLM)カオスマップ」2023年度6月版が公開
- 製造業のニーズに最適な機械学習サービスの選択
- saldra/sakura_japanese_dataset
- JSAI2023 Tutorial 「基盤モデルの技術と展望」
- LLMを制御するには何をするべきか?
SageMaker での LLM Instruction Tuning
- AWSがSageMaker上でのLLMをファインチューニング/デプロイするためのサンプルノートブックを公開している
- ファインチューニングに関しては通常の方法とLoRAメソッドを利用した方法のノートブックが存在する
GPT-4登場以降に出てきたChatGPT/LLMに関する論文や技術の振り返り
- GPT4の登場から5月31日までの間に登場した論文をまとめた記事
JP Language Model Evaluation Harness
- Stability AI Japan社がオープンソースの日本語モデルを比較評価している
「大規模言語モデル(LLM)カオスマップ」2023年度6月版が公開
- 株式会社ANOBAKAは、「大規模言語モデル(LLM)カオスマップ」2023年度6月版を公開した
製造業のニーズに最適な機械学習サービスの選択
- AWSのAutoMLサービスを利用して、解決できる製造業の課題が紹介されている
saldra/sakura_japanese_dataset
- 商用利用可能な超小規模高品質日本語データセットが公開されている
- 常識問題と数学問題が半々で含まれている
JSAI2023 Tutorial 「基盤モデルの技術と展望」
- 基盤モデルの技術的な動向について概観し、今後の展望について述べられた資料
LLMを制御するには何をするべきか?
- LLMを制御するアプローチ
- モデルを調整するアプローチ
- プロンプトエンジニアリング
- ファインチューニング
- アライメント
- モデルの前後を管理するアプローチ
- データクリーニング
- モデル監視
- 出力フィルタリング
- モデルを調整するアプローチ