- スーパーコンピュータ「富岳」政策対応枠における大規模言語モデル分散並列学習手法の開発について
- AWS による Jupyter の 生成系 AI の民主化とノートブック実行のスケールのための新しい拡張機能を発表
- Microsoft Build2023 BOOK OF NEWS
- Microsoft Build 2023のAI/MLアップデート最速まとめ
- State of GPT
- ChatGPT APIを取り巻くライブラリ〜LangChainとguidanceの紹介
- 日本語大規模言語モデル (by SHS)
- The 1st Conference on Transformers and Human Brain / Transformers and Human Brain 勉強会 第1回
- Microsoft Fabric の概要
- LLMを効率的に再学習する手法(PEFT)を解説
- OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門
- Google Colab で Rinna-3.6B のLoRAファインチューニングを試す
スーパーコンピュータ「富岳」政策対応枠における大規模言語モデル分散並列学習手法の開発について
- 「富岳」を活用した大規模言語モデル(Large Language Model, LLM)の分散並列学習手法の研究開発を2023年5月から実施する
- 研究開発の成果物を公開することで、アカデミアや企業が幅広く使える大規模言語モデルの構築環境を整える
AWS による Jupyter の 生成系 AI の民主化とノートブック実行のスケールのための新しい拡張機能を発表
以下の二つのJupyter 拡張機能が公開されている
Microsoft Build2023 BOOK OF NEWS
- Microsoft Buildで発表される主要なニュース項目へのガイド
- Microsoft outlines framework for building AI apps and copilots; expands AI plugin ecosystem
Microsoft Build 2023のAI/MLアップデート最速まとめ
State of GPT
ChatGPT APIを取り巻くライブラリ〜LangChainとguidanceの紹介
- guidanceを使うとシステム設定などをプログラミングライクに行える
日本語大規模言語モデル (by SHS)
- izumi-lab/llm-japanese-dataset v0という,約840万からなる,日本語向けRoLAチューニング用のチャットデータセットが公開された
The 1st Conference on Transformers and Human Brain / Transformers and Human Brain 勉強会 第1回
- 大規模言語モデル(LLM)のコアエンジンとも言える Transformer と脳の関係について理解を深める勉強会
Microsoft Fabric の概要
LLMを効率的に再学習する手法(PEFT)を解説
- 効率的にLLMのような事前学習済みモデルを再学習する手法(PEFT)について紹介した記事
- PEFTは一部のパラメータだけをファインチューニングするアプローチ
OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門
https://www.amazon.co.jp/dp/4862465595
- 「OpenAI API」を使うことでカスタマイズしたAIを独自のシステムに組み込むための方法をステップ・バイ・ステップで解説した本が発売される