SEが最近起こったことを書くブログ

ITエンジニアが試したこと、気になったことを書いていきます。

Azure AppServiceで送信トラフィックをVNET統合したときに送信インターネットトラフィックを無効にする方法

Azure AppServiceでVNET統合を利用すると、プライベートエンドポイント経由で仮想ネットワーク内のリソースにアクセスする方法を知っていたが、送信インターネットトラフィックを無効にする方法が分かっていなかったので、メモ

設定方法

  • Azure PotalでAppService→「ネットワーク」→「仮想ネットワーク統合」に移動する
  • 「送信インターネットトラフィック」をオンにする
  • 「適用」を選択する

参考ページ

learn.microsoft.com

2024年2月26日の週に気になった記事などまとめ

Open TTS Tracker

github.com

kunishou/J-ResearchCorpus

huggingface.co

WSL2でgpt2-large-japanese-charを試してみる

note.com

  • gpt2-large-japanese-charは、日本語 Wikipedia、CC-100 の日本語部分、および OSCAR の日本語部分で事前訓練されたGPT-2 Large (7 億 1700 万パラメーター) 言語モデル

Python Risk Identification Tool for generative AI (PyRIT)

github.com

  • 基盤モデルやモデルを利用するアプリケーションのリスクを特定するために利用できるツール

Same Task, More Tokens: the Impact of Input Length on the Reasoning Performance of Large Language Models

arxiv.org

  • 入力コンテキストの長さと推論パフォーマンスの関係を示した論文
  • 入力が長くなるとパフォーマンスが低下する

RAGでの回答精度向上のためのテクニック集(基礎編)

zenn.dev

Azure OpenAI Service を使用して生成 AI ソリューションを開発する

learn.microsoft.com

  • Azure OpenAI Serviceを使って生成AIソリューションを開発するMicrosoft Learnのコース

作業を依頼→Copilotが手順を考え、Windowsデスクトップで“自動RPA” Windows 11に新機能「Power Automate via Copilot in Windows

www.itmedia.co.jp

  • 「Power Automate via Copilot in Windows」はCopilotにプロンプトで作業を依頼することで、Windows上でさまざまな操作をユーザーに代わって自動的に実行してくれる

Sora: A Review on Background, Technology, Limitations, and Opportunities of Large Vision Models

arxiv.org

  • Soraの公開されている情報からモデルの背景や関連技術などを包括的にレビューした論文

The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

arxiv.org

  • 1.58ビットに量子化したLLMの論文

TTS Arena: 実際の環境でテキストから音声へのモデルを評価する

hamaruki.com

  • TTS Arenaの紹介記事を日本語化した記事

年間700本ドキュメントを書く人間の技術ブログ執筆方法

zenn.dev

  • 普段からメモを書く
  • 参考記事へのリンクが多く、参考になる

大規模言語モデルは専門医の診断を超えるか

zenn.dev

  • GPT-4と医師の診断・トリアージ制度を比較研究した論文を紹介した記事
  • GPT-4の臨床診断・トリアージの精度は専門医資格を有する意思と比べて遜色がない可能性がある

Code Interpreter 呼び出しの仕組みを理解する

qiita.com

  • Azure OpenAI ServiceでCode Interpreterを利用方法を紹介した記事
  • 呼び出し側の仕組みについても整理されている

Mixtral 250MのpretrainingからInstruction Tuningまで

zenn.dev

  • MoEを持つMixtralがhuggingface/transformersで公開されているので、これを利用しつつ、250Mの小さいサイズとして日本語と英語でpretraining、finetuningを行った記事

いまこそ学ぶLLMベースのAIエージェント入門―基本的なしくみ/開発ツール/有名なOSSや論文の紹介

speakerdeck.com

  • LLMベースのAIエージェントの基本を解説したスライド
  • 環境を「知覚」する仕組みと「アクション」をつなぐ「脳」としてLLMを使うのが、LLMベースのAIエージェント

What Evidence Do Language Models Find Convincing?

arxiv.org

  • 現在のLLMはクエリに対する関連性に大きく依存した文書を重視する
  • LLMは段落を読んで説得力を評価できない

エンジニア間でも大きく差が出る「生成AIをうまく活用できる人」と「できない人」 江草陽太氏が考える、AI時代に求められる能力

logmi.jp

  • 生成AIの出力をレビューできる能力がないと生成は使えない

人間中心設計からAI中心設計へ ~AIエージェントによって変わるソフトウェアのパラダイム

gihyo.jp

  • AIが扱うソフトウェアはAIにとって取り扱いものになっている必要がある

【日本語訳】OpenCodeInterpreter: コード生成、実行、および改善の統合

hamaruki.com

大規模言語モデル(LLM)における日本語評価の概観

tech.algomatic.jp

  • LLM評価について網羅的な調査や各種ツールの導入に取り組んできた知見を共有する記事
  • LLMのコードベースの評価ツールやベンチマークについても紹介されている

Likelihood-based Mitigation of Evaluation Bias in Large Language Models

arxiv.org

  • LLMを評価に利用する場合のバイアスの緩和策を紹介する論文

ChatGPT はどんな性格?PsychoBench を使った LLM の心理描写のベンチマーク

voice.pkshatech.com

  • LLM の評価フレームワークである PsychoBench を紹介した記事
  • 5種類のLLMの心理学的側面を評価、様々な特性の違いなどの知見を提供している

Gemini の情報源まとめ

note.com

NIST サイバーセキュリティフレームワーク 2.0を解説|約10年ぶりの大幅改訂、押さえるべき要点とは?

www.nri-secure.co.jp

  • NIST CSF 2.0における主な改訂のポイントと、特にインパクトの大きい6つ目の新機能「GV(統治)」について解説した記事
  • NIST CSF 2.0への改訂では、これらの幅広い利用用途を反映するために、規模や業種、対策の成熟度に関係なく、中小企業を含むあらゆる企業や組織での利用が進むように再設計された

Semantic Chunking

python.langchain.com

  • LangChainで意味的に似ているかどうかでテキストを分割する

Network Troubleshooter ツール を使用したネットワーク接続のトラブルシュートについて

azure.github.io

  • Azure Portal で使用できる診断ツール “Network Troubleshooter” について紹介した記事
  • App Service における外部接続のトラブルシューティングについては以下でも説明されている
  • 特定のエンドポイントへの接続テストなどができる

LangChain の Gemini統合 を試す

note.com

形で考えるサーバーレス設計

aws.amazon.com

Beyond Natural Language: LLMs Leveraging Alternative Formats for Enhanced Reasoning and Communication

arxiv.org

  • LLMとコミュニケーションする方法を自然言語以外にする手法を提案した論文

FastChatでGPTQの使い方

note.com

カスタムGPTsを悪用した攻撃と対策について

www.mbsd.jp

  • 対策
    • 通信先の外部サーバのFQDNを確認する
    • ダウンロードリンクのURLを確認する
  • GPTsが提案したコードを未検証で使用した場合、思わぬ攻撃を受けてしまう可能性がある

frodo821/BitNet-Transformers

github.com

【論文丁寧解説】BitNet b1.58とは一体何者なのか

qiita.com

Datasets for Large Language Models: A Comprehensive Survey

arxiv.org

ロングコンテキストLLMに対応したRAGの新アーキテクチャ

note.com

  • 「Gemini 1.5 Pro」に対応したRAGのアーキテクチャ
  • 埋め込みモデルはコンテキスト長が最大32Kなのが問題
  • 1Mのコンテキストを入れると最大60秒かかる

2024年2月19日の週に気になった記事などまとめ

仕事で差をつけるChatGPT活用術。初心者でも使えるテクニックを達人に聞く

meetscareer.tenshoku.mynavi.jp

  • ChatGPTは「どうやって検索したらいいか分からないことを調べるツール」で、検索エンジンは「調べたいことが言語化できている事柄について調べるツール」
  • ChatGPTでの調べものは「他人に相談する」ニュアンスに近い
  • 求めるアウトプットにつなげるためのコツ
    • できるだけ具体的に指示する」
    • 「指示の内容は一つずつに分ける」
    • 「例を挙げる」

論文検索GPTs6選+純正ブラウジング(Bing)の比較

note.com

  • 論文検索における最良の選択肢は、文献データベースを内蔵しているGPTサービス
  • ScholarAIはバランスが最も優れており、TXYZは文献の選択が素晴らしい

マルチモーダルLLM時代のベンチマークから見たGPT-4VとGeminiの比較

ainow.ai

  • 多言語翻訳、医療画像認識のような一部の専門的タスクにおいて、Gemini ProはGPT-4Vを上回る
  • GPT-4VとGemini Ultraを比較したベンチマーク結果はまだ多くないものも、その結果にもとづけば、専門家レベルの知識や推論を必要とするタスクにおいて後者は前者を上回る

Power Query でクエリを関数化する方法

qiita.com

KARAKURI LM を ELYZA-tasks-100 で評価してみた

qiita.com

  • KARAKURI LM を ELYZA-tasks-100 ベンチマークで評価したところ、これまで評価したオープンアクセスモデルのなかで最高スコアをマーク

KARAKURI-LM-70bをOllamaで動かしてみる

note.com

継続のコツは「わざわざ見に行く」をなくすこと。はてなフロントエンドエキスパートmizdraの情報収集術

levtech.jp

  • 必要な情報は全てTwitterGitHubに集まる仕組みをつくっている
  • 気になる記事を見つけたらその場でしっかり読んでいる
  • あとでじっくり読みたい記事などはChromeのタブとして開いておいて、業務の合間に読む
  • この技術が生まれることで、どんな課題を解決できるのか。また、その課題は解決に値するものなのか」を考える
  • 「必要な情報を追い切るまで諦めないこと」

AIベンダーを活用しきれず、PoCを失敗させていないか?事業会社が回避すべきアンチパターン

www.moderntimes.tv

  • マイクロマネジメントを避け、会議の回数を減らし、開発に関係ない業務は依頼者側で対応することが求められる。これにより、高品質のAIモデルの開発に集中し、プロジェクトの成功を目指すことができる

弊社のAzureリソースグループの分け方を紹介します

zenn.dev

  • サブシステムごとにリソースグループを分ける
    • 不要な機能をまとめて消すため
  • コスト管理の単位でリソースグループを分ける

Google Colab で kotomamba を試す

note.com

  • 「kotomamba」は、革新的な状態空間モデル「mamba」アーキテクチャを活用した、日本語LLM
  • Colabで動かす場合は、cu118にダウングレードする必要がある

Kotomamba: mamba-2.8B 学習知見

zenn.dev

  • 以下の二つのmambaモデルをリリースした
    • from scratchから日本語と英語のコーパスにて学習を行ったkotomamba-2.8B-v1.0
    • state-spaces/mamba-2.8b-slimpjから日本語と英語で継続事前学習を行ったkotomamba-2.8b-CL-v1.0
  • 同規模のTransformerモデルと遜色ない性能を発揮

Open WebUI(旧 Ollama WebUI)をインストールして使ってみる

note.com

LLama2の訓練可能な全層をQLoRAで学習する

note.com

  • QLoRAの状況について整理しつつ、学習可能なパラメータを増やしてファインチューニングをしてみた記事
  • 全層学習させた方が、早く訓練データに適合することがわかった

Document Intelligence preview adds query fields, new prebuilt models and other improvements

techcommunity.microsoft.com

  • Azure AI Document Intelligenceはマークダウンで出力することもできる

Microsoftが作ったWindows OS Copilotみたいな動きをするUFOの使い方

note.com

ReazonSpeech v2, whisper-large v3, nue-asrを比較してみた

note.com

  • ReazonSpeech v2は書き起こしのエラーが少なかった

科学的根拠に基づく最高の勉強法がガチで良かった話

note.com

On Your Data is now Generally Available in Azure OpenAI Service

techcommunity.microsoft.com

  • Azure OpenAI ServiceのOn Your DataがGAされた
  • プライベートエンドポイント経由でAzure AI SearchやAzure Blob Storageにアクセスできる
  • ローカルファイルやURL/WebアクセスのデータからRAGできる
  • 取得するドキュメント数や厳密さを設定できる

Google Colab で ReazonSpeech v2 を試す

note.com

Mambaを動かして速度をtransformerと比較するメモ

note.com

  • T4 GPUでの比較では、mamba (>30 tokens/sec)がtransformer(~ 15 tokens/sec)よりも2倍以上、早い

【AOAIドーナツ本出版記念】AzureでのChatGPT活用入門【基本から周辺サービスまで解説

speakerdeck.com

  • Azure AI Search概要とRAGシステムの構築について説明されている

Googleのオープンモデル Gemma の概要

note.com

  • 事前学習および指示チューニングされたモデルが公開されている
  • 「Keras 3.0」を介して、JAX、PyTorch、TensorFlow など、すべての主要なフレームワークにわたって推論と教師ありファインチューニング (SFT) のためのツールチェーンを提供

HuggingFace の Gemma 統合

note.com

  • ベースモデルにはプロンプト書式はない
  • Transformersで「gemma-7b-it」を使用するには約18GBのRAMが必要
  • 4bit読み込みの実行には約9GBのメモリが必要

GemmaをGoogle ColabやローカルPCで動かす

zenn.dev

プロンプトは考えたくないけど画像生成がしたい!

  • Danbooru タグを生成・補完してくれる LLM を作成した記事
  • Danbooru タグで生成したい画像の要素を指定する

大規模言語モデルを作る、拡張する

speakerdeck.com

  • モデルのかなりの能力は事前学習で定まる
  • データ量:パラメータ数=20:1にするとよい
  • 最近はモデルサイズは抑え、データを過剰にしている
  • データにはきわめて高い品質が求められる
  • 事後学習は機能とその要件を決めるが5割

AgentScope: A Flexible yet Robust Multi-Agent Platform

huggingface.co

  • マルチエージェントアプリケーションのメッセージ交換を備えたプラットフォームを提案した論文

生成AIプロダクト開発において技術的に重要な点

www.docswell.com

  • ライセンスの中でApache-2.0が一番問題が少ない

Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance

arxiv.org

  • プロンプトの丁寧さがLLMのパフォーマンスに及ぼす影響を調査した論文

gemma tokenizerとその他のtokenizer比較

zenn.dev

  • llama2、gemma、llm-jp、elyzaのtokenizerを比較した記事

gemma_finetune_lora.py

gist.github.com

  • GemmaをLoraでファインチューニングするコード

pdfからtextを抜き出す試行錯誤のメモ

note.com

  • Unstructured、Grobid、PyMuPDF、手動操作でのテキスト抽出を比較した記事

Best Practices for LLM Evaluation of RAG Applications

www.databricks.com

  • LLMの自動評価のベストプラクティスを紹介した記事

日本語チャットボットアリーナ

huggingface.co

  • 日本語に対応しているLLMの評価のリーダーボード

2024年版:独断と偏見で選ぶ、データ分析職の方々にお薦めしたいホットトピックス&定番の書籍リスト

tjo.hatenablog.com

PreAct: Predicting Future in ReAct Enhances Agent's Planning Ability

arxiv.org

  • エージェントに予測による結果を活用させることでタスク遂行能力が上がるかを確認した論文

Learning From Failure: Integrating Negative Examples when Fine-tuning Large Language Models as Agents

arxiv.org

  • タスクの失敗事例をファインチューニングに活用する方法を提案する論文
  • 失敗事例を失敗と理解させるファインチューニングを行う

Large Language Model-based Human-Agent Collaboration for Complex Task Solving

arxiv.org

  • エージェントタスク遂行に限定的に人間が介入することでパフォーマンスが向上することを示した論文

3か月試してわかった、Copilot for Microsoft 365の実力とユースケース

note.com

  • 最も効果的な活用シーンは、「情報収集/探索」と「会議による議論/情報共有」
  • PowerPointの資料作成する際は、Wordでざっと言いたいことを書いてから、PowerPointでスライドに仕上げる

ENOG81: AWSIPv6とPublic IPv4のおはなし

speakerdeck.com

  • 持ち込んだIPv6アドレスも利用できる
  • IPv6を有効にするとデュアルスタックとなる
  • Egress-only Internet Gateway
  • NAT Gateway
    • VPC上のIPv6を持つリソースがインターネット上のIPv4しか持たないリソースにアクセスしたい場合に利用する

"違和感" から見つける脆弱性

speakerdeck.com

実行例で理解する Runnable in langchain

qiita.com

WSL2でgemma.cppを試してみる

note.com

大規模言語モデルを作ります(10-50b, 2024年3-8月頃)

note.com

【事例大全】Azure OpenAI を利用する Digital Native/Startup まとめ

qiita.com

2024年2月12日の週に気になった記事などまとめ

Google Colab で LLM-jp 13B v1.1 を試す

note.com

  • 日英両データセットによるSFT、ichikaraデータセットの追加+DPOで対話応答性能が向上している

大規模言語モデルの構築の事前学習に使えそうなデータセット(主に日本語系)の整理メモ

note.com

  • 日本語データセットが含まれるものをまとめた記事

Top Evaluation Metrics for RAG Failures

towardsdatascience.com

  • RAGがうまくいかない時の解決方法を検討する際に参考になる記事

Agent AI: Surveying the Horizons of Multimodal Interaction

arxiv.org

  • マルチモーダルエージェントのサーベイ論文

Self-Discover: Large Language Models Self-Compose Reasoning Structures

arxiv.org

  • LLMがタスクごとに適切な推論プロセスを自ら考えて実行できるようにするためのプロンプト手法が考案された

Azure OpenAIでHyDEを使ったRAGの検索精度向上を目指す!

zenn.dev

  • PythonライブラリでHyDEを実装してみた記事
  • HyDEの類似度はベーシックの場合と比較して正しい回答と間違った回答の類似度の差が大きくなっている

【Day 2】東大松尾研のLLM講座資料が公開されたから、詳しく読んでいくよ【備忘録】

qiita.com

LlamaIndex v0.10 の概要

note.com

  • 「llama-index-core」を作成し、「Integration」を個別パッケージに分離
  • 「llama-index」パッケージはまだ存在しており、「llama-index-core」と最小限の統合セットをインポートしている

Amazon Bedrockの導入効果をレビューでご紹介(KDDIアジャイル開発センター株式会社-みのるん

findy-tools.io

  • Amazon Bedrockの採用の決め手
    • AWSクラウドサービスを使い慣れたエンジニアが多かった点
    • スピーディな開発に便利なマネージドサービスのラインナップが豊富だった点

Google Colabで高性能?LLMモデル『Orion-14B』を試用してみる

tech.dentsusoken.com

  • 「A100 GPU」を利用する

Large Language Models: A Survey

arxiv.org

Google Colabでの日本語Mambaの事前学習

note.com

  • Mambaは状態空間モデル

Memory and new controls for ChatGPT

openai.com

  • ChatGPTにメモリ機能がリリースされた

Your RAGs powered by Google Search technology, part 2

cloud.google.com

  • RAGシステムを構築するのに役立つテクノロジーを紹介した記事
  • ナレッジグラフがVertex AI Searchと統合されている

オープンなLLM (大規模言語モデル) の発展と、それを活かした日本語LLMの開発について

https://www.jaistso.or.jp/wp-content/uploads/2024/02/JAIST-SO_seminar_202403_2.pdf

azure-functions-openai-extension

github.com

生成 AI のセキュリティと生産性を両立させる

speakerdeck.com

JDLAが、『生成AIの利用ガイドライン(画像編)』を公開

www.jdla.org

  • 画像生成のAIモデルを審査する手続きでの観点について記載されている

Azure OpenAI Service の Assistants API を理解する

zenn.dev

  • Knowledge retrievalはまだ公開されていない
  • Code interpreter と Function calling の両方に対応しているモデルバージョンが完全に一致していない
  • APIバージョンは、"2024-02-15-preview"のみ対応
  • メッセージは新しいものから順に格納される
  • Azure OpenAI Studio では、各操作を行った際にどのようなリクエストが投げられてるかを画面右側の Logs から確認することができるため、操作とリクエストの対応関係を直感的に理解しやすくなっている
  • Azure OpenAI Studio からも新規アシスタントの作成を行ったり、既存のアシスタントを開いたりすることができる

CommonCrawlの生データをダウンロードして解析する練習

note.com

UFO: A UI-Focused Agent for Windows OS Interaction

arxiv.org

  • GPT-visionの機能を利用して、Windows OS上のアプリケーションに合わせたユーザー要求を満たすエージェントを紹介する論文

RAG Fusionが思ってたより凄そう

zenn.dev

  • RAG Fusionは、RAG、Reciprocal Rank Fusion、生成されたクエリを組み合わせた新しいシステム
  • RAG Fusionの流れ
    • 複数クエリの生成
    • ベクトル検索
    • リランキング
    • Outputの生成

「Copilot for Microsoft 365 ユーザー向け研修資料」を公開しました!

blog.cloudnative.co.jp

DiskANN: Vector Search for Web Scale Search and Recommendation

www.microsoft.com

  • リアルタイムな変更と単純なフィルターをサポートする大規模なベクトル検索用のコスト効率の高い近似最近傍検索アルゴリズム
  • 以下にリポジトリがある

【ローカルLLM】QLoRAの複雑なパラメータを(少しでも)整理する

note.com

Kotomamba: Mamba State Space Model 分散学習ライブラリ

zenn.dev

  • 状態空間モデル SSM(State Space Models)では O(L) の計算量に抑えることで、長い系列長を高速に推論することができるモデルアーキテクチャ
  • Mamba は状態空間モデルの1種であり、S4の問題点であった「入力に対して"動的"な推論が不可能である」という点を克服したモデル
  • kotomambaとは、一言で言うと、Mambaを分散並列学習するためのライブラリ

GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発

ai-data-base.com

  • 指示チューニング(モデルをタスクに適応させること)を2段階で行うことにより、LLMの質問応答タスクのゼロショット性能が大幅に改善されるとのこと

LangChain社LLMOpsツール「LangSmith」を触ってみた(詳細解説つき)

tech-blog.abeja.asia

  • LangChain で実装した LLM アプリケーションの入出力履歴の実行トレースを、LangSmith のコンソール UI 上で確認できる
  • LLM のファインチューニングや RAG、品質評価などに使用するデータセットを LangSmith のコンソール UI 上で管理できる
  • 各実行トレースをアノテーションキューに保管し、LangSmith のコンソール UI 上で入出力文やフィードバック情報等をアノテーションできる
  • LangSmith の Hub 機能では、プロンプトの作成とバージョン管理できる

GraphRAG: Unlocking LLM discovery on narrative private data

www.microsoft.com

  • GraghRAGはLLMが作成したナレッジグラフを使用して、質疑応答のパフォーマンスを大幅に向上させる

ソフトウェアセキュリティはAIの登場でどう変わるか - OWASP LLM Top 10

speakerdeck.com

  • AI関連ソフトウェアでは従来とは異なる保護施策も必要
    • 入力値検証の複雑性が高まるなど
  • AIを守る・調べるOSSツール実装も出てきている

Style-Bert-VITS2 JP-Extra と LLM を用いた AI エージェント構築

note.com

LlamaIndex v0.10 クイックスタートガイド - Python

note.com

音声入出力でLLM on Google Colab

colab.research.google.com

Pythonでリストを多用しがちな新人に贈りたい、array/tuple/set/queueの魅力と使い分けフローチャート

qiita.com

  • array型は数値専用のシーケンス型
  • シーケンス型の値を後から変更しない時はタプルを使う
  • setは要素の重複を想定しないかつ要素の順番を意識していない時に使う
  • 戦闘や末尾の挿入・削除を実行するときは、dequeを使う

Gemini 1.5: Unlocking multimodal understanding across millions of tokens of context

https://storage.googleapis.com/deepmind-media/gemini/gemini_v1_5_report.pdf

  • ブログによる紹介は以下のページ
  • Gemini1.5 Pro はより少ないコンピューティングの使用で1.0 Ultra と同等の品質
  • MoEアーキテクチャが採用されている
  • Gemini1.5 Pro は 1 時間のビデオ、11 時間のオーディオ、30,000 行以上のコードまたは 700,000 ワード以上のコードベースなど、膨大な量の情報を一度に処理できる
    • 100万ト-クンまで利用できる
  • 日本語で紹介した記事

Video generation models as world simulators

openai.com

  • Soraの概要は以下のページに記載されている
    • openai.com
      • プロンプトに従う最長1分のビデオを生成できる
      • プロンプトで要求したことだけでなく、物理世界を理解してシミュレートするように教えている
      • 拡散モデルで生成している
      • DALL-EとGPTモデルの過去の研究に基づいている
    • 日本語に訳した記事
  • ビデオをパッチに変換している
  • 視覚データの次元を削減するネットワークをトレーニングしている
  • 拡散トランスフォーマーでビデオを生成している
  • 画像やビデオをからビデオを生成することもできる
  • 日本語に訳した記事

ChatGPT for Developer - Promptのチカラ

speakerdeck.com

自然言語処理】テキストデータにラベル付けするサイトを作った

qiita.com

[02/10~02/16] LLM Weekly News

note.com

Microsoft 生成AI活用事例と評価方法について

speakerdeck.com

  • MicrosoftにおけるCopilotの利用と評価が定量的に記載されている
  • 業務シーンごとのゴールデンプロンプトだけを徹底的に周知する

Secure Code Game

github.com

  • コード内の脆弱なパターンを特定して修正する方法を学べるリポジトリ
  • 毎月60時までGitHub Code Spacesの無料枠で実施できる

【Day 3】東大松尾研のLLM講座資料が公開されたから、詳しく読んでいくよ【備忘録】

qiita.com

  • TransformerとLLMの事前学習について学ぶときに参考となる資料が張られている

【AI動画生成】Sora 要素技術解説

zenn.dev

  • 以下の要素が主軸
    • 動画データを潜在空間に圧縮した後、Transformerがトークンとして利用できる「時空潜在パッチ」に変換する技術
      • 画像生成でのVAE
    • Transoformerベースのビデオ拡散モデル
    • DALLE3を用いた高精度なビデオキャプショニングによるデータセット作成

Ollama で Elyza-7B を試す

note.com

  • Ollamaのサイトに載っていないモデルは、自分で「Modelfile」を作成して、追加する必要がある
    • 同じチャットテンプレートのモデルのモデルファイル名だけ変更すれば動く

LangChain v0.1 クイックスタートガイド - Python

note.com

Microsoft Copilot - Edge と Microsoft 365

shanqiai.lekumo.biz

  • Copilot を商用データ保護なしで使用できないようにするには、DNS 設定を変更する必要がある

Chat with RTXでELYZA-japanese-Llama-2-7b-instructを試してみる

note.com

Premise Order Matters in Reasoning with Large Language Models

arxiv.org

  • 前提条件の順序がモデルのパフォーマンスに影響する

2024.02.16_LLMを活用してオンライン薬局のオペレーションを自動化した話

speakerdeck.com

  • 以下を自動化した
    • 処方箋情報から医薬品の処方情報を抜き出して構造化する
      • GPT-4Vで処方情報を正しく構造化することができる
    • 構造化したテキストをJSON化する
      • JSON化を担保するためにGPT-4Turboを使う
    • 処方情報からその医薬品の添付文書を取得する
    • 処方情報とその医薬品の添付文書を照らし合わせて疑似照会を自動作成する

日本語の事前学習データセット(OSCAR,mc4)を機械学習でクリーニングしてみる練習

note.com

Generative AI Design Patterns: A Comprehensive Guide

towardsdatascience.com

  • 特定のタスク用の生成AIモデルを並行させる
    • 大きなモデルはどのエージェントを使うかの判断に利用する
  • 1つのAIが作成したコンテンツを別のAIが批判的に評価する

教師なし学習で事前学習用のWebテキストを分類する

note.com

  • FastText + KMeansで、Webページをジャンル分けできるかを試した記事bed:cite]

ChatGPTを社内に配ってもあまり使われない本当の理由

qiita.com

  • 素のChatGPTに解けるタスクは、要するに公開情報に基づくもの
    • 特に活用素地が大きいのは、企画・マーケティング, 研究者・リサーチャー, ITエンジニア
  • 社内の利用状況のギャップを埋めるための施策としては、「社内情報のコンテキストを持たせるRAGのレベルをどれだけ上げていくか?」という事が真に問うべき論点

GitHub Copilotは開発者の生産性をどれだけ上げるのか?ZOZOでの全社導入とその効果

speakerdeck.com

2024年2月5日の週に気になった記事などまとめ

HuggingChat: ローカルLLM用モデルを試せて、アシスタントも作れるサイト

note.com

  • Search webのオプションもある

GPT4-Vで構成図からIaCコードを生成させる

qiita.com

  • GPT-4-Turbo with Visionを使って、構成図からIaCコード(今回はARM template)を生成させた記事

Metaなどの研究者らが、LLMが自分自身に報酬を与える「自己報酬言語モデル」を開発

ai-data-base.com

アナリティクスエンジニアのキャリアとデータモデリング 〜

speakerdeck.com

  • 責務に応じてレイヤーを分け、命名規則で管理する

ベースライン OpenAI エンドツーエンド チャット リファレンス アーキテクチャ

learn.microsoft.com

  • Azure Machine Learning (AML) プロンプトフローを使用して、受信プロンプトからデータストアへのワークフローを調整して、LLM の基本データと必要なその他の Python ロジックをフェッチする実行可能フローを作成するアーキテクチャを紹介する記事
  • 各サービスで信頼性を担保するために、どのようにデプロイすべきかが記載されている

AI時代のユーザ体験は「AAAA」モデルで考えよう

note.com

  • 「AI時代ならではの体験設計ってなんだろう?」を整理した記事
  • 「AAAA」は「Automation(自動化)」「Advice(助言)」「Augment(強化)」「Agent(代行)」から構成されている
  • Automation・Advice・Augment・Agentの4つは、以下のの2軸によって分類が可能
    • ①ユーザとAIとのタッチポイント
    • ②タスクの実行主体はユーザか?AIか?
  • 「AAAA」のそれぞれが望ましいケースが記載されている

VPCエンドポイントを活用したコスト削減

speakerdeck.com

  • NAT GatewayVPCエンドポイントに変更し、コスト削減した話

ローカルLLMの推論速度を高速化する5つの手法と比較評価

zenn.dev

  • ローカルLLMの推論速度を改善する5つの手法を実装し、推論速度がどの程度改善するかを確認した記事
  • 以下の手法を比較している
    • torch.compile
    • flash_attention_v1
    • flash_attention_v1 + torch.compile
    • flash_attention_v2
    • vLLM
  • vLLMとflash_attention_v2の効果が大きい

RAGの実案件に取り組んできた今までの知見をまとめてみた

dev.classmethod.jp

  • 社内のドキュメント情報に関してQAできるチャットボット(Slackアプリ)を構築した際の、構成方法や試してみての改善点について記載した記事
  • 関連情報の渡し方を工夫するところに時間をかける
  • LLMの処理時間は出力トークン数にほぼ比例する
  • LLMは会社独自の知識や業務知識には対応できないため、補完する必要がある
  • クラウドサービスごとの検索サービスのテキストの取り出し方が掲載されている

Azure OpenAI Assistants Code Interpreter (Preview)

learn.microsoft.com

  • Azure OpenAI ServiceでAssistants APIが利用できるようになった

気負わず、書く。私が意識してやっている、子育て中でもできるアウトプット術

levtech.jp

  • 「未来の自分に残すメモ」という感覚でブログを書く
  • 自分自身が思いついたことをノートに書き出していくことや日報なども自分のアウトプットと言える

JapaneseEmbeddingEval

github.com

GPT-4のコード生成能力を飛躍的に向上させるプロンプトフレームワーク『AlphaCodium』

ai-data-base.com

  • AlphaCodiumを使うと、コード生成の精度が顕著に向上する

[和訳]Azure コスト最適化 (原題:Azure Cost Optimization)

qiita.com

  • 以下の7つを実施する
    1. 使用していないリソースを停止する
    2. 使用していないリソースを適切なサイズにする
    3. 一貫したリザーブインスタンスの利用
    4. Azureハイブリッド特典の活用
    5. 自動スケーリングを設定
    6. 予算を設定し、チームやプロジェクトにコストを割り当てる
    7. 適切な Azureコンピュートサービスを選択する

社内用語集を気軽に質問できるSlackBotを作ってみた (RAGの応用アプリ)

tech-blog.abeja.asia

  • LangChain での RAG を使用して、LLM が学習に使用していない特定ドメインでの用語を応答する Slack ボットを紹介する記事
  • 用語集のスプレッドシートCSVに変換し、Choma or Faissに保存
  • ヒューマンインザループを含んだ継続的品質改善の仕組みもある
    • 解答が不十分な場合は用語集に用語の登録する

大規模言語モデルにおける混合エキスパートモデルの一種 Branch-Train-Merge (BTM)の勉強

note.com

BTMは大規模言語モデル(LLM)を効率的に訓練・推論する際の有効な手法

  • 以下のフローで学習。活用される
    • 学習用テキストを専門ごとにN分割
    • N個のモデルをそれぞれ独立に訓練
    • 全てのモデルをマージして利用
  • MoEはトークンレベルでモデルを入れ替えるが、BTMは文章レベルで入れ替える

Gemini Advanced と 新モバイルアプリ の概要

note.com

  • 「Bard」は 「Gemini」と呼ぶようになった
  • 「Gemini Advanced」は、新しい「Google One AI Premium Plan」の一部として月額 19.99 ドルで利用できる
    • 最初の2か月は無料トライアルできる」

v1.1 チューニング済みモデル・データ公開

llm-jp.nii.ac.jp

  • LLM-jp からインストラクションチューニングの設定の見直しや DPO の追加によって,性能を改善したチューニング済みモデル v1.1 とその際に使用したデータとコードが公開された
  • いずれも商用利用可能なライセンスで公開されている
  • 事前学習済みモデルはv1.0を利用している

大規模画像テキストデータのフィルタリング手法の紹介

speakerdeck.com

  • 様々な画像テキストデータのフィルタリング方法を紹介するスライド
  • 大規模画像テキストデータについて
    • 画像に対応するテキストとして、代替テキストを用いることが多い
    • ノイズが多い問題がある
  • 画像内の文字がキャプションに含まれる場合はバイアスが生じる可能性がある

東工大Swallowプロジェクトにおける大規模日本語Webコーパスの構築

speakerdeck.com

  • Common Crawlから日本語テキストを抽出・洗練して構築した
  • 日本語コーパスの中で商用利用可能なものとしては最大
  • 日本語テキストをさらに処理して、高品質なコーパスを構築している
  • 一部の日本語テキストをあきらめ、lang属性、title属性の言語で最初の日本語判定
  • 繰り返し表現はn-gramベースのルールなどで不適切な文書を除去
  • 日本語の品質は独自ルールを適用し、判断
  • 全角・半角のアルファベットやカタカナなどを正規化
  • フッターの典型的な表現を除去

RAGの性能を改善するための8つの戦略

fintan.jp

  • 前処理
    • PDFよりは、データソースとなる文書(Wordなど)を利用したほうがよい
      • 表示されていないテキストが抽出される場合がある
    • レイアウト解析による文書構造の検出
  • メタデータによるフィルタリング
  • チャンキング戦略
  • 埋め込みモデルの選択
  • クエリ変換
  • ハイブリッド検索
  • リランキング
    • この記事の実験ではベクトル検索とりランカーを組み合わせた場合は、性能が低下した
  • クエリのルーティング

LangSmith Hub

smith.langchain.com

  • プロンプトが共有されている

2024年1月29日の週に気になった記事などまとめ

MM-LLMs: Recent Advances in MultiModal Large Language Models

arxiv.org

  • 最近のマルチモーダル大規模減モデルをまとめたサーベイ論文

google/siglip-base-patch16-256-multilingual を使って、ローカルの画像を日本語で検索してみる

note.com

LangCheckでLLMの回答を自動評価する

www.bioerrorlog.work

  • LLMのアウトプットを各評価関数に渡すと、メトリクスに従ってスコアが算出される

OpenAIの新embeddings,text-embedding-3-smallをRAGタスクで評価する

secon.dev 

  • Wikipedia Q&A の RAG タスクで評価した記事
  • text-embedding-3-smallの512次元より、multilingual-e5 シリーズの評価の方が高い

プロンプトの小さな違いがLLMにもたらすバタフライ効果を調査した結果

ai-data-base.com

  • 出力形式や小さなプロンプトの変更がどれほどLLMの応答に影響するのかを、大量のケーススタディで実験した結果が報告した論文を紹介した記事

生成AI新年会2024で「AIエージェントとLangChain」について話しました

note.com

GPT-4Vで設計図からプログラムを生成する

qiita.com

生成AIツール導入、その後事業価値を生み出すまでの話

speakerdeck.com

GPTsをMVPに使うアジャイルな社内LLMツール開発

speakerdeck.com

インストラクションデータ構築方法とデータ収集源

zenn.dev

弁護士目線で見た2024年の生成AIトレンド予測

speakerdeck.com

STABLECLIP,SIGLIPで自然言語な画像検索

docs.google.com

LangGraphで始めるマルチエージェントシステム

speakerdeck.com

Copilot for Microsoft 365 ぶっちゃけどうなの?_生成AI新年会@GMO Yours・フクラス

speakerdeck.com

オープンな日本語埋め込みモデルの選択肢

speakerdeck.com

  • SimCSE、GLuCoSE、JaColBERT、Multilingual-E5を比較したスライド

ローカルでLLMの推論を実行するのにOllamaがかわいい

zenn.dev

エンプラDXにおける2024年の生成AIトレンド予測 @生成AI新年会2024

speakerdeck.com

SameSite属性とCSRFとHSTS - Cookieの基礎知識からブラウザごとのエッジケースまでおさらいする

blog.flatt.tech

ラクリ、700億パラメーターLLM「KARAKURI LM」を一般公開

karakuri.ai

GitLabで学んだ最高の働き方Developers Summit 2022.02.18 2024.01.23 更新

learn.gitlab.com

既存機能の大規模リニューアルに着手し、途中でやめる意思決定をした

note.com

論文「RAG VS Fine-tuning」を読む

zenn.dev

APIOSS 、蓄積したデータで精度を改善するならどちらの基盤モデルを選択すべきか : 質問回答編

aws.amazon.com

大規模言語モデルへの化学的思考の教示と物性予測

www.docswell.com

2024年1月くらいのAWS最新情報ブログとかをキャッチアップする – AWSトレンドチェック勉強会用資料

dev.classmethod.jp

個人的に気になった内容 - [待望] CloudShell で Docker が利用可能になりました 5/56 - クラスメソッド データアナリティクス通信(機械学習編) – 2024年1月号 8/56 - クラスメソッド データアナリティクス通信(AWSデータ分析編) – 2024年1月号 #AWSreInvent 9/56 - 2024年にサポート終了が予告されているAWSサービスをまとめてみた 30/56

100社のコスト診断から見えてきた、コスト削減の王道とケモノ道

speakerdeck.com

節約は技術!削減は芸術!何より必要なものは覚悟!

speakerdeck.com

OpenAIとMicrosoft Graph Search APIでM365の組織内データを検索するRAGアプリを作る

zenn.dev

  • Microsoft SearchはM365テナント内のデータをユーザーに適した形で検索、提供してくれる機能
  • Microsoft SearchはGraph API経由で呼び出すことができる
    • Microsoft Graph コネクタを使うことで、M365外のデータを検索対象にすることもできる

AzureでRAGをガンガン試行錯誤してみて得たナレッジを紹介します!

speakerdeck.com

  • データの内容に冗長なものやノイズになるものが含まれている場合は要約してから取り込む

Llama.cpp で Karakuri LM を試す

note.com

kuromoji.js による 日本語形態素解析 を試す

note.com

日本ディープラーニング協会主催 NeurIPS 2023 技術報告会講演資料

speakerdeck.com

  • トレンド1:LLMをより人が好む回答へ
  • トレンド2:データの重要性について
  • トレンド3:モデルの社会的適合性を多面的評価
  • トレンド4:マルチモーダルモデルも同様
  • トレンド5:汎用的AIに向けて推論力を高めよう
  • トレンド6:他分野への応用
  • トレンド7:未解決現象の理論的解明

karakuri-lm-70b-chatをOpenAI互換のローカルサーバとして動かしてみた

qiita.com

  • karakuri-lm-70b-chatの4bit量子版ggufをローカルPCで動かしてみた記事
  • text-generation-webuiを利用して動かした

PyTorchチュートリアル(日本語翻訳版)

yutaroogawa.github.io

A decoder-only foundation model for time-series forecasting

blog.research.google

SegMoE: Segmind Mixture of Diffusion Experts の概要

note.com

Azure OpenAI Service REST API reference

learn.microsoft.com

  • 2023-09-01-preview以前のPreviewが2024-04-02に利用できなくなる予定

2024年のPythonプログラミング

tech.uzabase.com

WSL2でllama-cpp-pythonを試してみる

note.com

2024年1月22日の週に気になった記事などまとめ

GoogleのマルチモーダルAI「Gemini Pro Vision」は、動画についてどこまで正しく答えられるか?

internet.watch.impress.co.jp

  • Geminiは、PNGJPEGの画像に加えて、MKV、MOV、MP4、WebMの動画に対応している
  • 現状アップロードできる動画は、最大7MB(2分間)まで
  • 時系列の変化の把握はまだ難しい

NTT、少ないデータから特定個人の声や口調を再現する技術を開発。大規模言語モデル「tsuzumi」に搭載

internet.watch.impress.co.jp

  • 個人の口調や発話内容の特徴を反映して対話を生成する「個人性再現対話技術」を開発したと発表
  • 個人性再現対話技術は、LLMの学習方法である「アダプタ技術」と「ペルソナ対話技術」を組み合わせて、個人性を再現するためのLLMのファインチューニングにあたる調整・追加学習を行うもの

A Cheat Sheet and Some Recipes For Building Advanced RAG

blog.llamaindex.ai

学習済みの LLM を束ねて Mixture of Experts を作るテク

zenn.dev

  • Phixtral で使われている、LLMs を Sparse MoE としてマージする際に Gating のパラメータを決める手法について調べた記事

エンジニアやデザイナーがやっているポッドキャスト更新まとめ

engineer-designer-podcast-rss.it-trio-no.com

Google Colab で StripedHyena-7B を試す

note.com

  • 「TripedHyena-7B」は、短期および長期コンテキストの評価において最高のオープンソース「Transformers」と競合する代替モデル

Leveraging Large Language Models for NLG Evaluation: A Survey

arxiv.org

明治安田生命の実業務における生成AI導入をELYZAが支援

prtimes.jp

  • お客さま応対メモの作成業務を自動化する生成AIサービスを提供
  • 応対メモ作成業務にかかる時間を約30%削減できる見込みのほか、作成者によって微妙に異なる表現が統一化され、わかりやすさが向上することも期待できる

Word で mp3 などの音声ファイルから、文字起こしをさせる方法

qiita.com

  • Microsoft Wordにディクテーション機能がある
  • 動画や音声ファイルから文字起こしできる

日本語LLMの学習に向けたデータ前処理

zenn.dev

  • 言語検出、テキスト正規化、テキストのチャンキング、品質フィルタリングのデータ前処理によりノイズを取り除く方法を解説した記事
  • linguaを使って言語検出
  • neologdnを使ってテキスト正規化
  • langchainでテキストチャンキング
  • LLMを用いてperplexityを計算することで品質フィルタリング

Azure Container Service をスケールする

learn.microsoft.com

  • ワークロードシナリオごとの最適なAzure Container Serviceを理解するのに役立つ記事

AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介

levtech.jp

  • 2つの主要な機能を持つモデル
    • 与えられたプロンプトに対して良い応答を生成する能力である
    • 新しい問題(プロンプト)をつくり、それに対する答えを生成し、その品質を評価して(報酬を割り当て)、自分の学習データに加える能力
  • 訓練を1回から3回反復することで、モデルの性能が回数を増すごとに向上すると示された

大規模言語モデルの「幻覚」を軽減する32の最新テクニック バングラデシュなどの研究者らが発表

www.itmedia.co.jp

  • 生成前や生成中、生成後のさまざまな段階で外部情報を取り入れることでより正確な回答を引き出すもの、言語モデル自体を改良して誤った情報の生成を減らすものなど、異なるアプローチに分類されている

Googleなどが開発、LLMに表データ(.csvなど)の情報を深く理解させるためのフレームワーク『Chain of Table』

ai-data-base.com

  • 表形式(.csvなど)のデータを通してLLMが「連鎖的な推論」を行うためのフレームワークが考案された
    • 表データの操作を通してLLMにステップバイステップの推論を行わせデータに対する深い理解を促すChain of Tableを考案

airllmを使ってT4で70B LLMの推論を実行してみる

www.ai-shift.co.jp

  • LLMの層ごとに推論処理を行うアプローチをシンプルなインターフェースで使えるようにしてくれたライブラリがairllm
    • 理論上GPUのメモリは4GBでよい
  • airllmを使ってT4上でmeta-llama/Llama-2-70b-chat-hfの推論を試した記事
  • Llamaベースのモデルしかサポートしていない
  • 1層ずつ処理を行っていくので推論速度はとても遅い

DPO によるLLMのPreferenceチューニング

note.com

  • 「DPO」はLLMを人間またはAIの好みに合わせるための有望な代替手段として浮上している
  • 「DPO」はアライメントの定式化を、嗜好のデータセット上で直接最適化できる単純な損失関数として再構成する

第7回 LLM 勉強会

llm-jp.nii.ac.jp

  • 大規模言語モデルSwallowについての発表資料などが公開されている

Regional Scrum Gathering Tokyo 2024のスライドまとめ #RSGT2024

scrummasudar.hatenablog.com

GoogleColobで小規模言語モデル(0.15B)の事前学習モデルを作ってみる

ayousanz.hatenadiary.jp

Google Colab で Orion-14B を試す

note.com

Mobile Top 10 2024: Final Release Updates

owasp.org

  • OWASP Mobile Top10がリリースされた

Nejumi LLMリーダーボード Neo の LLMベンチマークの使い方

note.com

AWSでCIDR重複したVPC間の通信方法4選を比較してみた

www.lac.co.jp

  • CIDR重複したVPC間の通信方法の代表的な解決ソリューション4選を比較した記事
    • アドレス再設計
    • AWS PrivateLink
    • バックエンドサブネット
    • プライベートNAT Gateway

Streaming With LangChain

python.langchain.com

  • LangChainで Stream出力する方法を記載したページ

ChatGPT で仕事の生産性と質を10倍向上させる方法 -2024年1月バージョン-

speakerdeck.com

New embedding models and API updates

openai.com

  • OpenAIから新しいEmbeddingモデルが公開された
    • text-embedding-3-small
      • text-embedding-ada-002の1/5の価格
      • 英語タスクも多言語タスクもtext-embedding-ada-002から改善
    • text-embedding-3-large
      • 最大 3072 次元のEmbeddingを作成する
      • text-embedding-ada-002より少し高い
  • gpt-3.5-turbo-0125が公開された
    • GPT-3.5 Turboの価格が引き下げられた
    • 英語以外の言語のFunction Callingのテキストエンコーディングのバグが修正された
  • gpt-4-0125-previewが公開された
    • UTF-8を利用した際のバグが修正された
  • 日本語での解説記事

Llama.cppのOpenAI互換モードを使って、OpenAIから少ない手間でローカルLLMに乗り換える

note.com

  • Llama.cppのserverはOpenAI互換モードでリクエストを受け付けている

API を用いた App Service のネットワークトラブルシューティング

jpazpaas.github.io

  • 指定したポートへTCP接続を試みた結果を出力する方法と、指定したhostnameのDNS名前解決を試みた結果を出力する方法が記載されている

Amazon Bedrock でチャットボットを作ってみた!

aws.amazon.com

  • Bedrock Claude Chatを使うと社内専用の生成AIチャットツールを数コマンドで簡単医デプロイできる
  • IPアドレス制限がデフォルトで用意されている
  • Github上のソースコードの場所は以下

LangChain の Tavily Serch API を試す

note.com

Japanese Formal Logic Deduction

github.com

Stability AI Japan の Japanese Stable LM Instruct Alpha 7B v2 が Amazon SageMaker JumpStart で使えるようになりました

aws.amazon.com

  • Amazon SageMaker JumpStart において、Stability AI 社が開発した日本語 LLM である Japanese Stable LM Instruct Alpha 7B v2 が利用可能になった

XWin 70B で LLM 出力日本語文章の自動評価を行う試み

zenn.dev

  • 量子化版Xwin 70Bを使って、LLM 出力日本語文章の自動評価を試した記事

最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル

ai-data-base.com

  • タスクに応じて専門家を選ぶ仕組みによって、大きなパラメータでも計算コストを効率よくするのが特徴の「Mixtral 8x7B」の論文について説明した記事

Fine-Tuning or Retrieval? Comparing Knowledge Injection in LLMs

arxiv.org

  • RAGとFine Tuningの二つのLLMに知識を与えるアプローチを比較した論文
  • 以下のモデルで実験した
    • Llama2-7B
    • Mistral-7B
    • Orca2-7B
  • ファインチューニングで知識を与えるために、様々ないい方で繰り返し知識を与える必要がある

Google Colab で LangGraph を試す

note.com

  • 「LangGraph」は、LLMでステートフルな「マルチアクターアプリケーション」を構築するためのライブラリ
  • 複数チェーン (またはアクター) を複数ステップにわたって循環的に協調動作させることができる

パナソニックコネクトが進める機械学習ライブラリのOSS開発

speakerdeck.com

  • 高い説明性に強みを持つ機械学習モデル「Cyclic boosting」を公開した
  • 確率分布の過程なしで、確率分布を推定できる