SEが最近起こったことを書くブログ

ITエンジニアが試したこと、気になったことを書いていきます。

2024年1月15日の週に気になった記事などまとめ

Self-Extendでfine-tuningせずに長文コンテキストを扱おう

note.com

AIと著作権に関する考え方について(素案)令和6年1月15日時点版

https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_06/pdf/93988501_02.pdf

Survey of Vector Database Management Systems

arxiv.org

LLMにおける情報抽出(文章から必要な事柄を読み取る)タスクについての調査

ai-data-base.com

  • 様々な情報抽出タスクにおけるLLM活用を網羅的に調査した研究を紹介した記事

コスト最適化のはなし with Microsoft Copilot for Azure

speakerdeck.com

  • Azureのコスト最適化手法を紹介したスライド
  • コスト最適化は継続タスク
    • 節約プランの対象が広がるなどの変化があるため

deepseek-ai/DeepSeek-MoE

github.com

  • Expertを細かくわけたMoEモデル
  • 同様の数の有効化パラメータのモデルを大幅に上回るベンチマーク

データ分析の落とし穴。「良い指標」は変化する

www.moderntimes.tv

  • ユーザーが増えれば、良い指標は変わる

大規模言語モデル: Mixture of experts(MOE)のMixtral-8x7B-Instruct-v0.1で遊ぶ

note.com

  • Mixtral-8x7B-Instruct-v0.1の推論とLoRAファインチューニングについて記載した記事

LLMのプロンプトをCI/CDで評価する。promptfooを使って

tech.gunosy.io

  • プロンプトやモデルの比較を行うためのツール「promptfoo」を紹介した記事

Bringing the full power of Copilot to more people and businesses

blogs.microsoft.com

  • Copilot for Microsoft365の300シート制限が削除された
  • Office365 E3 E5の顧客もCopilotを利用できるようになった
  • 日本語記事

HuggingFaceM4/VLM_WebSight_finetuned

huggingface.co

実録レガシーコード改善

speakerdeck.com

  • ソフトウェア開発の3本柱
    • バージョン管理
    • テスト
    • 自動化

“AI生成の文章/画像だけ”でデータを学習する手法 人間が作るものは一切使わず GoogleとMITが開発

www.itmedia.co.jp

  • 合成画像と合成キャプションから視覚表現を学習するアプローチを提案した研究報告を紹介する記事

ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (3) 英語での性能評価編

zenn.dev

  • 英語モデルの日本語化にあたって失われる能力についての分析した
    • 追加事前学習とSFTを用いた英語モデルの日本語化により、元のモデルが持っていた能力がどの程度失われているかを確認した記事
  • 日本語により追加継続事前学習で英語性能の劣化が起こる
  • SFTにより多少、追加事前学習のみのモデルよりも英語性能が回復する

Security Best Practices for GenAI Applications (OpenAI) in Azure

techcommunity.microsoft.com

  • Azure OpenAIを活用したアプリケーションを保護するためのベストプラクティスを紹介した記事

Stable Code 3B - エッジでのコーディング

ja.stability.ai

  • MabBook AirのようなGPUがないノートパソコンでもオフラインで動作する
  • 商用利用するためにはStability AIメンバーシップへの登録が必要

継続学習における事前学習言語モデルを比較する

ai-scholar.tech

  • 継続学習と事前学習モデルを組み合わせた場合における性能について包括的な比較研究を行い、事前学習モデルを利用した継続学習に関する様々な情報を明らかにした論文について紹介した記事

1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮

ai-data-base.com

  • 研究者らは1.1Bパラメータの「TinyLlama」を約3兆トークンで訓練して様々なタスク(常識推論や問題解決)で実験した結果を報告した研究を紹介した記事

Generate AI powered insights for Amazon Security Lake using Amazon SageMaker Studio and Amazon Bedrock

aws.amazon.com

  • Amazon Bedrockを用いて、SageMaker Studioの機能を強化し、セキュリティアナリストがセキュリティ調査を加速させるソリューションを紹介した記事

LLMに「自分自身との対戦」で能力を向上させる手法『Self-Play Fine-Tuning(SPIN)』

ai-data-base.com

  • LLMに自身の出力をアップデートさせ続け、品質を向上させる自己学習手法の「SPIN」について紹介した記事

RAG vs Fine-tuning: Pipelines, Tradeoffs, and a Case Study on Agriculture

arxiv.org

  • RAGとファインチューニングの定量的、定性的な利点を農業に対する適用を用いて説明した記事

テキスト検索の原点:全文検索のしくみと活用ポイント

speakerdeck.com

  • 検索道具の選び方
    • 検索+ランカー
      • 検索結果のランキングがいまいちのときは、別のアルゴリズムや外部の情報でリランクする
      • ベクトル検索の調整はファインチューニング
  • 道具だけに頼らずに工夫する
    • 既存DBのインデックスを流用する
    • LLMに必要な条件がそろうまで聞き返しさせる
    • 入力されなくてもわかっている条件を自動的に補う

Copilot プロンプトの詳細

support.microsoft.com

  • Copilotのプロンプトについて紹介したページ

Baseline OpenAI end-to-end chat reference architecture

learn.microsoft.com

hako-mikan/sd-webui-traintrain

github.com

  • Stable DiffusionのLoRAファインチューニングをWebUI上から実施するツール

"クラウドアプリケーション 10の設計原則" をもっと楽しむ

speakerdeck.com

  • クラウドアプリケーション10の設計原則で紹介された原則について紹介したスライド

Code Generation with AlphaCodium: From Prompt Engineering to Flow Engineering

arxiv.org

  • LLMを活用してコード生成へのアプローチを提案した論文

StabilityAIのstable-code-3bをGoogle Colabで使う方法

note.com