SEが最近起こったことを書くブログ

ITエンジニアが試したこと、気になったことを書いていきます。

2023年5月22日の週に気になった記事などまとめ

スーパーコンピュータ「富岳」政策対応枠における大規模言語モデル分散並列学習手法の開発について

www.riken.jp

  • 「富岳」を活用した大規模言語モデル(Large Language Model, LLM)の分散並列学習手法の研究開発を2023年5月から実施する
  • 研究開発の成果物を公開することで、アカデミアや企業が幅広く使える大規模言語モデルの構築環境を整える

AWS による Jupyter の 生成系 AI の民主化とノートブック実行のスケールのための新しい拡張機能を発表

aws.amazon.com

以下の二つのJupyter 拡張機能が公開されている

  • Jupyter AI: Jupyter のノートブックへ生成系 AI を提供するオープンソースプロジェクト
    • チャット UI、IPython マジックコマンドから大規模言語モデルを使用できる
    • ローカルファイルに関する質問に答えたり、簡単な自然言語のプロンプトからノートブック全体を生成することもできる
    • Jupyter AI は Project Jupyter の公式オープンソースプロジェクト
  • Amazon CodeWhisperer Jupyter 拡張機能
    • 開発者のコメントと統合開発環境 (IDE) 内の先行コードに基づいてリアルタイムでコードを提案できる

Microsoft Build2023 BOOK OF NEWS

news.microsoft.com

  • Microsoft Buildで発表される主要なニュース項目へのガイド
  • Microsoft outlines framework for building AI apps and copilots; expands AI plugin ecosystem

Microsoft Build 2023のAI/MLアップデート最速まとめ

zenn.dev

State of GPT

build.microsoft.com

  • Microsoft Build 2023のGPTアシスタントのトレーニングパイプラインについて学ぶセッション

ChatGPT APIを取り巻くライブラリ〜LangChainとguidanceの紹介

gihyo.jp

  • guidanceを使うとシステム設定などをプログラミングライクに行える

日本語大規模言語モデル (by SHS)

llm.msuzuki.me

  • izumi-lab/llm-japanese-dataset v0という,約840万からなる,日本語向けRoLAチューニング用のチャットデータセットが公開された

The 1st Conference on Transformers and Human Brain / Transformers and Human Brain 勉強会 第1回

www.youtube.com

  • 大規模言語モデル(LLM)のコアエンジンとも言える Transformer と脳の関係について理解を深める勉強会

Microsoft Fabric の概要

learn.microsoft.com

LLMを効率的に再学習する手法(PEFT)を解説

blog.brainpad.co.jp

  • 効率的にLLMのような事前学習済みモデルを再学習する手法(PEFT)について紹介した記事
  • PEFTは一部のパラメータだけをファインチューニングするアプローチ

OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門

https://www.amazon.co.jp/dp/4862465595

  • 「OpenAI API」を使うことでカスタマイズしたAIを独自のシステムに組み込むための方法をステップ・バイ・ステップで解説した本が発売される

Google Colab で Rinna-3.6B のLoRAファインチューニングを試す

note.com

  • kun1em0nさんの「kunishou/databricks-dolly-15k-ja」をデータセットに利用し、Google Colab」で「Rinna-3.6B」のLoRAファインチューニングを試行した記事