- 生成AIの進化と今後の展望
- Lessons from the Trenches on Reproducible Evaluation of Language Models
- GPT-4oを使って動画チュートリアルをブログ記事に変換する
- Analyze data using Log Analytics Simple mode
- 複雑な表をLLMに理解させる
- Azure VNet フローログ
- ゼロからLLMつくりたくなったときに参考になりそうなサイト
- DifyとローカルLLMを使用して複数のエージェントを設定して議論する方法
- オープンソースのRAGアプリ「RAGFlow」を試す
- 無料で商用にも使える日本の郵便番号APIをリリースしました
- 特化型モデルが日本の生成A開発の勝ち筋
- HuggingFace Diffusers v0.28.0の新機能
- Team「たぬき」開発振り返りメモ3: 10bクラスの大規模言語モデルを実際に開発して想定外だったこと5選
- LLM でブラウザを操作する WEB エージェントと周辺技術のざっくり紹介
- LLMによる合成データ(Synthetic Data)生成のテクニック
- クラウド時代のデータベースを理解するために①
- 仕事の対話を AI でハックする考え方とプロセス 〜 AI と協働できる人材へ 〜
- 「RAGはそんなに簡単じゃない」──AIエンジニア主導でLLMを導入すると失敗に? 日本語特化のELYZA・曽根岡CEOに聞く、LLM開発&活用のいま
- AWS Community Builder流:技術情報のインプット・アウトプット戦略
- 仮説思考入門 🗺 スタートアップの仮説思考 (1)
- AI搭載エディタCursorの紹介と機械学習コンペでの使用レビュー
- MosasoM/inappropriate-words-ja
- DifyとSlackを連携したSlack Botをつくってみた
- Introducing the Azure AI Model Inference API
- Codestral: Hello, World!
- テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)
- S3経由でXSS!?不可思議なContent-Typeの値を利用する攻撃手法の新観点
- 大規模言語モデルの開発
- RAGのサービスをリリースして1年が経ちました
- 社内文書検索&QAシステムの RAG ではないところ
- Maximilian-Winter/llama-cpp-agent
- LLMs Meet Multimodal Generation and Editing: A Survey
- Claude can now use tools
- Gemini 1.5 Pro・Flash のGAリリースとAPIアップデート
- 話題のLLMローコード構築ツールDifyをAWSのマネージドサービスで構築してみた
- What We Learned from a Year of Building with LLMs (Part I)
- GPT-4oは本当にOpenAI史上最高のモデルなのか?
- 今すぐ先端AIを積極活用するべき理由
- ChatGPT - LLMシステム開発大全
- [05/18~05/24] 生成AI Weekly News|Perplexity Pages や ChatGPT各機能が無料ユーザーへも公開など
- RAGで文書を1トークンに圧縮する「xRAG」について
- ELYZA LLM for JP (デモ版)についての解説: (1) 70Bモデルの推論基盤
- Gemini 1.5 の JSONモードを試す
- ローカルLLMで試行錯誤してみた話
- 1on1 で「センスが無い」を言語化した話
- 【 AI で 働き方 はどう変わる?】AIが勝手に 仕事 をしてくれる日が、もう間も無くやってくる!! スタートアップ と 生成AI シリーズ ゲストは西見公宏さん
- GPT-2(124M)をllm.cでGoogle Colab環境で再現チャレンジしてみる
- ダッシュボードデザインの実践ガイドブックとチャート・コンポーネントライブラリ(ベータ版)
- 最近の7B小型日本語LLMはエージェントになれるのか?
- SuperRAG – How to achieve higher accuracy with Retrieval Augmented Generation
- OpenAIのGPT4oは本当に圧倒的に強いのか?解説してみた
- Neo4j Live: Knowledge Graph Builder App
生成AIの進化と今後の展望
https://hillbig.github.io/AIEXPO2024spring_okanohara.pdf
- 同じ能力を持つ推論に必要な計算資源は劇的に減ってきている
- LLMで学習のためのデータを生成することは進む
- 学習自体よりも学習データ作成に研究や計算投入が今後進む
Lessons from the Trenches on Reproducible Evaluation of Language Models
- LLM評価のベストプラクティスとライブラリを紹介する論文
GPT-4oを使って動画チュートリアルをブログ記事に変換する
- 動画をチャプターに分割し、チャプターごとに動画から均一サンプリングで画像を選択
- チャプターごとにブログをMarkdownで作成
- 結合して一つの記事にする
Analyze data using Log Analytics Simple mode
- Log AynalyticsにKQLの知識なしでも利用できるSimpleモードが追加された
複雑な表をLLMに理解させる
- 前処理をLLMで実施して、複雑な表をJSON形式に変換する
Azure VNet フローログ
ゼロからLLMつくりたくなったときに参考になりそうなサイト
DifyとローカルLLMを使用して複数のエージェントを設定して議論する方法
- 4人のエージェントのシステムプロンプトを設定
- 各エージェントの応答プロンプトにはインプットと前のエージェントの意見を考慮するように指示
オープンソースのRAGアプリ「RAGFlow」を試す
- ドキュメントをOCRしてパースする
- 言語で選べるのは英語と中国語のみ
無料で商用にも使える日本の郵便番号APIをリリースしました
特化型モデルが日本の生成A開発の勝ち筋
- コマーシャルモデルの精度向上は大きくない
- 10Bパラメータモデル上位で大きな精度向上が起こっている
- 7Bパラメータ周辺はモデルサイズに性能向上が制約を受けている
HuggingFace Diffusers v0.28.0の新機能
Team「たぬき」開発振り返りメモ3: 10bクラスの大規模言語モデルを実際に開発して想定外だったこと5選
- GPUの性能を使いきるのは難しい
- gradient accumulationでサーバ間の通信の頻度を減らした
LLM でブラウザを操作する WEB エージェントと周辺技術のざっくり紹介
LLMによる合成データ(Synthetic Data)生成のテクニック
- LLMの合成データは、蒸留と自己改善に使える
クラウド時代のデータベースを理解するために①
- コンピュートとストレージを別々に拡張できる
- コンピュート部分がオンデマンドで自動的に拡張されるサービスもある
仕事の対話を AI でハックする考え方とプロセス 〜 AI と協働できる人材へ 〜
- AIは知識の提供者ではなく、高い論理的思考力を持つフィルターとして活用するのが効果的
- DB(本質)とUI(表現)が一体化している場合は、意識して切り分けする
「RAGはそんなに簡単じゃない」──AIエンジニア主導でLLMを導入すると失敗に? 日本語特化のELYZA・曽根岡CEOに聞く、LLM開発&活用のいま
AWS Community Builder流:技術情報のインプット・アウトプット戦略
- インプットでの疑問を放置しない
- TODOリストを作る
- 歴史を知るように意識する
- アウトプットは自分用のメモ帳ぐらいに考える
- ブログ・登壇は他社に見られるプレッシャーからクオリティが上がる
仮説思考入門 🗺 スタートアップの仮説思考 (1)
- 仮説は事実×推論で生まれる
- 仮説は積み重なるたびにもろくなる
AI搭載エディタCursorの紹介と機械学習コンペでの使用レビュー
- Chatの際にコピペする必要がないので、ChatGPTよりも楽
MosasoM/inappropriate-words-ja
- チャットボットやSNSの不適切表現をフィルタリングするための単語リスト
DifyとSlackを連携したSlack Botをつくってみた
- Difyはまだ並列実行がサポートされていない
Introducing the Azure AI Model Inference API
- Azure AI モデルの推論APIを紹介する記事
- 同じ構文でモデルを利用できる
Codestral: Hello, World!
- Mistralが作成したコード生成モデル
テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)
S3経由でXSS!?不可思議なContent-Typeの値を利用する攻撃手法の新観点
- Content-Typeの値によっては、意図しない形で HTML としてブラウザに解釈させることができる
大規模言語モデルの開発
- 事前学習で獲得していない能力を指示チューニングで補うのは困難
- モデル模倣はハルシネーションを助長する
RAGのサービスをリリースして1年が経ちました
- 現在のRAGは答えの獲得が目的で、会話が目的のものは少ない
- 質問よりも回答を探す条件のほうがRAGの精度が出る
社内文書検索&QAシステムの RAG ではないところ
- UI によって曖昧なクエリを入力させない フロントエンドの工夫をする
- 生成誤りの予防や対策をする
Maximilian-Winter/llama-cpp-agent
- LLMとのチャット、関数呼び出しの実行、構造化された出力の生成、RAGの実行、ツールによるエージェントチェーンを使用したテキスト処理などのインターフェースを提供するライブラリ
LLMs Meet Multimodal Generation and Editing: A Survey
- 様々な領域のマルチモーダル生成に焦点を当てた論文
Claude can now use tools
- Claudeのツール機能がGAされ、BedrockやGCPのVertex AIのCalude3でも利用できるようになった
Gemini 1.5 Pro・Flash のGAリリースとAPIアップデート
話題のLLMローコード構築ツールDifyをAWSのマネージドサービスで構築してみた
- AWSのマネージドサービスでDifyを構築するTerraformテンプレートを共有した記事
- 共有ストレージにS3を利用している
What We Learned from a Year of Building with LLMs (Part I)
- LLMを活用したアプリケーションを構築する際の戦術的な要点のベストプラクティスをまとめた記事
GPT-4oは本当にOpenAI史上最高のモデルなのか?
今すぐ先端AIを積極活用するべき理由
ChatGPT - LLMシステム開発大全
- RAGの発展的な精度向上のベストプラクティスの図解が追加された
[05/18~05/24] 生成AI Weekly News|Perplexity Pages や ChatGPT各機能が無料ユーザーへも公開など
RAGで文書を1トークンに圧縮する「xRAG」について
- xRAGでは、ユーザーの質問に関連したドキュメントを取得したあと、その取得したドキュメントをベクトルに「変換」し、ベクトルデータをユーザーの質問とともにLLMに渡し回答を生成させる手法
ELYZA LLM for JP (デモ版)についての解説: (1) 70Bモデルの推論基盤
- inf2.48xlargeで運用している
- ECS on EC2で推論コンテナを管理している
Gemini 1.5 の JSONモードを試す
ローカルLLMで試行錯誤してみた話
- JSON形式で出力するために試行錯誤したことを記載した記事
1on1 で「センスが無い」を言語化した話
【 AI で 働き方 はどう変わる?】AIが勝手に 仕事 をしてくれる日が、もう間も無くやってくる!! スタートアップ と 生成AI シリーズ ゲストは西見公宏さん
GPT-2(124M)をllm.cでGoogle Colab環境で再現チャレンジしてみる
ダッシュボードデザインの実践ガイドブックとチャート・コンポーネントライブラリ(ベータ版)
最近の7B小型日本語LLMはエージェントになれるのか?
- llama-cpp-agentは最初からローカルLLMで動かす事を前提に作られている
- ドキュメントページのサンプルコードではなく、リポジトリ内のサンプルコードを使った方が良い
SuperRAG – How to achieve higher accuracy with Retrieval Augmented Generation
- 多くのドキュメントを検索し、検索したドキュメントにスコアを付けて、関連する部分を抽出する手法の紹介記事
OpenAIのGPT4oは本当に圧倒的に強いのか?解説してみた
Neo4j Live: Knowledge Graph Builder App
- PDFをNeo4jに保存された動的なナレッジぐラフに変換する方法を紹介する動画
- 以下のGitHubリポジトリのツールを活用している github.com