SEが最近起こったことを書くブログ

ITエンジニアが試したこと、気になったことを書いていきます。

2024年5月27日の週に気になった記事などまとめ

生成AIの進化と今後の展望

https://hillbig.github.io/AIEXPO2024spring_okanohara.pdf

  • 同じ能力を持つ推論に必要な計算資源は劇的に減ってきている
  • LLMで学習のためのデータを生成することは進む
  • 学習自体よりも学習データ作成に研究や計算投入が今後進む

Lessons from the Trenches on Reproducible Evaluation of Language Models

arxiv.org

  • LLM評価のベストプラクティスとライブラリを紹介する論文

GPT-4oを使って動画チュートリアルをブログ記事に変換する

stmind.hatenablog.com

  • 動画をチャプターに分割し、チャプターごとに動画から均一サンプリングで画像を選択
  • チャプターごとにブログをMarkdownで作成
  • 結合して一つの記事にする

Analyze data using Log Analytics Simple mode

techcommunity.microsoft.com

  • Log AynalyticsにKQLの知識なしでも利用できるSimpleモードが追加された

複雑な表をLLMに理解させる

note.com

  • 前処理をLLMで実施して、複雑な表をJSON形式に変換する

Azure VNet フローログ

qiita.com

ゼロからLLMつくりたくなったときに参考になりそうなサイト

zenn.dev

DifyとローカルLLMを使用して複数のエージェントを設定して議論する方法

hamaruki.com

  • 4人のエージェントのシステムプロンプトを設定
  • 各エージェントの応答プロンプトにはインプットと前のエージェントの意見を考慮するように指示

オープンソースのRAGアプリ「RAGFlow」を試す

zenn.dev

  • ドキュメントをOCRしてパースする
  • 言語で選べるのは英語と中国語のみ

無料で商用にも使える日本の郵便番号APIをリリースしました

zenn.dev

  • GitHub Pagesを使用して静的なJSONファイルとして配信している
  • 配信データはGitHub Actionsで毎日最新の内容に更新している

特化型モデルが日本の生成A開発の勝ち筋

ashibata.com

  • コマーシャルモデルの精度向上は大きくない
  • 10Bパラメータモデル上位で大きな精度向上が起こっている
  • 7Bパラメータ周辺はモデルサイズに性能向上が制約を受けている

HuggingFace Diffusers v0.28.0の新機能

note.com

Team「たぬき」開発振り返りメモ3: 10bクラスの大規模言語モデルを実際に開発して想定外だったこと5選

zenn.dev

  • GPUの性能を使いきるのは難しい
  • gradient accumulationでサーバ間の通信の頻度を減らした

LLM でブラウザを操作する WEB エージェントと周辺技術のざっくり紹介

tech.algomatic.jp

LLMによる合成データ(Synthetic Data)生成のテクニック

note.com

  • LLMの合成データは、蒸留と自己改善に使える

クラウド時代のデータベースを理解するために①

zenn.dev

  • コンピュートとストレージを別々に拡張できる
  • コンピュート部分がオンデマンドで自動的に拡張されるサービスもある

仕事の対話を AI でハックする考え方とプロセス 〜 AI と協働できる人材へ 〜

speakerdeck.com

  • AIは知識の提供者ではなく、高い論理的思考力を持つフィルターとして活用するのが効果的
  • DB(本質)とUI(表現)が一体化している場合は、意識して切り分けする

「RAGはそんなに簡単じゃない」──AIエンジニア主導でLLMを導入すると失敗に? 日本語特化のELYZA・曽根岡CEOに聞く、LLM開発&活用のいま

www.itmedia.co.jp

AWS Community Builder流:技術情報のインプット・アウトプット戦略

speakerdeck.com

  • インプットでの疑問を放置しない
    • TODOリストを作る
  • 歴史を知るように意識する
  • アウトプットは自分用のメモ帳ぐらいに考える
  • ブログ・登壇は他社に見られるプレッシャーからクオリティが上がる

仮説思考入門 🗺 スタートアップの仮説思考 (1)

speakerdeck.com

  • 仮説は事実×推論で生まれる
  • 仮説は積み重なるたびにもろくなる

AI搭載エディタCursorの紹介と機械学習コンペでの使用レビュー

speakerdeck.com

  • Chatの際にコピペする必要がないので、ChatGPTよりも楽

MosasoM/inappropriate-words-ja

github.com

  • チャットボットやSNSの不適切表現をフィルタリングするための単語リスト

DifyとSlackを連携したSlack Botをつくってみた

tech.nri-net.com

  • Difyはまだ並列実行がサポートされていない

Introducing the Azure AI Model Inference API

techcommunity.microsoft.com

  • Azure AI モデルの推論APIを紹介する記事
  • 同じ構文でモデルを利用できる

Codestral: Hello, World!

mistral.ai

  • Mistralが作成したコード生成モデル

テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)

www.digital.go.jp

S3経由でXSS!?不可思議なContent-Typeの値を利用する攻撃手法の新観点

blog.flatt.tech

  • Content-Typeの値によっては、意図しない形で HTML としてブラウザに解釈させることができる

大規模言語モデルの開発

speakerdeck.com

  • 事前学習で獲得していない能力を指示チューニングで補うのは困難
  • モデル模倣はハルシネーションを助長する

RAGのサービスをリリースして1年が経ちました

speakerdeck.com

  • 現在のRAGは答えの獲得が目的で、会話が目的のものは少ない
  • 質問よりも回答を探す条件のほうがRAGの精度が出る

社内文書検索&QAシステムの RAG ではないところ

tech.algomatic.jp

  • UI によって曖昧なクエリを入力させない フロントエンドの工夫をする
  • 生成誤りの予防や対策をする

Maximilian-Winter/llama-cpp-agent

github.com

  • LLMとのチャット、関数呼び出しの実行、構造化された出力の生成、RAGの実行、ツールによるエージェントチェーンを使用したテキスト処理などのインターフェースを提供するライブラリ

LLMs Meet Multimodal Generation and Editing: A Survey

arxiv.org

  • 様々な領域のマルチモーダル生成に焦点を当てた論文

Claude can now use tools

www.anthropic.com

  • Claudeのツール機能がGAされ、BedrockやGCPのVertex AIのCalude3でも利用できるようになった

Gemini 1.5 Pro・Flash のGAリリースとAPIアップデート

note.com

  • 6月17日に「Gemini 1.5 Flash」のチューニングがサポートを開始する
  • JSON モードがリリースされた

話題のLLMローコード構築ツールDifyをAWSのマネージドサービスで構築してみた

www.m3tech.blog

  • AWSのマネージドサービスでDifyを構築するTerraformテンプレートを共有した記事
  • 共有ストレージにS3を利用している

What We Learned from a Year of Building with LLMs (Part I)

www.oreilly.com

  • LLMを活用したアプリケーションを構築する際の戦術的な要点のベストプラクティスをまとめた記事

GPT-4oは本当にOpenAI史上最高のモデルなのか?

www.youtube.com

今すぐ先端AIを積極活用するべき理由

www.youtube.com

ChatGPT - LLMシステム開発大全

speakerdeck.com

  • RAGの発展的な精度向上のベストプラクティスの図解が追加された

[05/18~05/24] 生成AI Weekly News|Perplexity Pages や ChatGPT各機能が無料ユーザーへも公開など

note.com

RAGで文書を1トークンに圧縮する「xRAG」について

zenn.dev

  • xRAGでは、ユーザーの質問に関連したドキュメントを取得したあと、その取得したドキュメントをベクトルに「変換」し、ベクトルデータをユーザーの質問とともにLLMに渡し回答を生成させる手法

ELYZA LLM for JP (デモ版)についての解説: (1) 70Bモデルの推論基盤

zenn.dev

  • inf2.48xlargeで運用している
  • ECS on EC2で推論コンテナを管理している

Gemini 1.5 の JSONモードを試す

note.com

ローカルLLMで試行錯誤してみた話

blog.howtelevision.co.jp

  • JSON形式で出力するために試行錯誤したことを記載した記事

1on1 で「センスが無い」を言語化した話

tech.layerx.co.jp

【 AI で 働き方 はどう変わる?】AIが勝手に 仕事 をしてくれる日が、もう間も無くやってくる!! スタートアップ と 生成AI シリーズ ゲストは西見公宏さん

www.youtube.com

GPT-2(124M)をllm.cでGoogle Colab環境で再現チャレンジしてみる

note.com

ダッシュボードデザインの実践ガイドブックとチャート・コンポーネントライブラリ(ベータ版)

www.digital.go.jp

最近の7B小型日本語LLMはエージェントになれるのか?

soysoftware.sakura.ne.jp

  • llama-cpp-agentは最初からローカルLLMで動かす事を前提に作られている
  • ドキュメントページのサンプルコードではなく、リポジトリ内のサンプルコードを使った方が良い

SuperRAG – How to achieve higher accuracy with Retrieval Augmented Generation

techcommunity.microsoft.com

  • 多くのドキュメントを検索し、検索したドキュメントにスコアを付けて、関連する部分を抽出する手法の紹介記事

OpenAIのGPT4oは本当に圧倒的に強いのか?解説してみた

www.youtube.com

Neo4j Live: Knowledge Graph Builder App

www.youtube.com

  • PDFをNeo4jに保存された動的なナレッジぐラフに変換する方法を紹介する動画
  • 以下のGitHubリポジトリのツールを活用している github.com