SEが最近起こったことを書くブログ

ITエンジニアが試したこと、気になったことを書いていきます。

2024年3月4日の週に気になった記事などまとめ

Awesome-Graph-LLM

github.com

先日リリースされたGitHub Copilot Enterprise の最速レビュー!〜進化したGitHub Copilotを使ってみた〜

developers.cyberagent.co.jp

あなたのRAGは、回答型?それとも検索型?

qiita.com

  • 回答型RAG
    • 情報を参照して要約した回答を求める
  • 検索型RAG
    • 検索結果そのものを求める
    • 情報の正確性が特に重要視される場面

webbigdata/C3TR-Adapter

huggingface.co

  • gemma-7bの日英・英日翻訳性能を向上させるQLoRA Adapter

Introducing the next generation of Claude

www.anthropic.com

[TU-B-1] LLMと音声理解・生成の最新動向

https://deim2024-tutorial-public.s3.ap-northeast-1.amazonaws.com/TU-B-1_LLM%E3%81%A8%E9%9F%B3%E5%A3%B0.pdf

  • 大規模言語モデル(Large Language Model; LLM)および、LLMのマルチモーダル拡張における音声の理解と生成の分野に着目した資料

[TU-C-2] 大規模言語モデルに基づく検索モデル

https://deim2024-tutorial-public.s3.ap-northeast-1.amazonaws.com/TU-C-2_%E6%A4%9C%E7%B4%A2%E3%83%A2%E3%83%86%E3%82%99%E3%83%AB.pdf

  • 大規模言語モデルを利用した検索モデルを、Linが提案する概念フレームワークに従って整理し、代表的な検索モデルについて紹介した資料

[TU-D-2] LLMの嘘:ハルシネーション解説

https://deim2024-tutorial-public.s3.ap-northeast-1.amazonaws.com/TU-D-2_LLM%E3%81%AE%E5%98%98.pdf[

  • LLMの構築方法からハルシネーション解消に向けたアプローチまでを解説した資料

hotchpotch/JQaRA

huggingface.co

  • 検索拡張(RAG)評価のための日本語 Q&A データセット

KaggleのNLPコンペで初手に使える可視化 〜BERTopicを用いた文書クラスタリングと可視化〜

zenn.dev

  • BERTopicを使って可視化する方法をまとめた記事

RAGでの回答精度向上のためのテクニック集(応用編-A)

zenn.dev

Collect User Feedback in Streamlit

docs.smith.langchain.com

大規模言語モデルを用いたゼロショットテキスト分類によるTCFD推奨開示項目の自動判定

https://www.jpx.co.jp/corporate/research-study/working-paper/JPXWP_Vol43.pdf

  • LLMsを用いたゼロショットテキスト分類でTFCD推奨開示項目の充足状況を機械的に分類する手法を提案した

Google Colab で Claude 3 の テキスト生成 を試す

note.com

alfredplpl/wikipedia-qa-ja-500k

huggingface.co

『技術書を書く技術』というテーマで、JAWS DAYS 2024に登壇しました

tech.nri-net.com

プライベートの時間は極力削らない。Kubernetesエキスパート青山真也氏のコスパ最高な情報収集術

levtech.jp

  • 毎日のルーティンの中で、QiitaやZennを含む技術記事を読むときも、Twitter上で注目を集めている記事から辿る
  • ルーティンでの情報収集の目的は業界のトレンドを掴むこと
  • 専門性を高めるための情報収集のために、国内外のカンファレンスやMeetup、勉強会に積極的に参加する
    • 専門領域の具体的なプラクティスを最小限の労力で一気にキャッチアップできる
  • 各プロダクトの概要だけ掴んでおけば、全ての最新情報を逐一キャッチし続ける必要はない

ゼロから作る Deep Learning

github.com

Azure OpenAI コンテンツフィルターのススメ

speakerdeck.com

マルチモーダルなAIの活用@LLMProducion

www.docswell.com

  • VLMを活用して各フレームに対するテキストの存在確率を出力
  • その出力を活用して時系列解析モデルが行動を検出

GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみた

qiita.com

日本語Vision Languageモデル heron-blip-v1の公開

zenn.dev

  • LLM部分をフルパラ学習
  • 指示チューニング用学習データをllava-1.5の学習に用いられているllava-620kの日本語翻訳モデルを利用
  • 最初からLLaVAのデータで学習

Design2Code: How Far Are We From Automating Front-End Engineering?

arxiv.org

大規模言語モデルフルスクラッチする練習 (環境構築ー前処理ー事前学習ーファインチューニングー評価まで)

note.com

データマネジメント入門 - DX推進を支えるデータ基盤の重要性 / 20240125

speakerdeck.com

rinna、日本語音声処理に適した事前学習モデルを公開

rinna.co.jp

  • 日本語の音声処理に適した事前学習モデルdata2vec 2.0・HuBERT・data2vecを開発し、商用利用可能なApache-2.0ライセンスで公開

Google Colab で heron-blip-v1 を試す

note.com

GPT開発の悩みの種「速度」「精度」「評価」の壁をどう超えるか

speakerdeck.com

  • GPTモデルが混んでいると、リクエストのキューイングにより、速度が遅い場合がある
  • RAGの精度を高める対策
    • ドキュメントをQA化するなどの加工をする
  • 対話履歴をGPTによるシミュレーションで増やすこともできる

Power CAT によるMicrosoft Copilot Studio の実装ガイドが公開されました

www.geekfujiwara.com

  • 個人的に気になった箇所
    • 生成型の回答 (Generative Answers) にはAzure OpenAI のモデル GPT-3.5 Turbo を利用
    • 会話履歴10ターンはコンテキスト化に利用されている
    • すべてのデータソースのTop 3 を検索し検証、要約した結果を返す
  • SharePoint をデータソースとして回答する場合の1ファイルの容量は最大3MB

ABEMAの効果検証事例〜効果の異質性を考える〜

speakerdeck.com

A Survey on LLM-based Autonomous Agents

github.com

Docker ハンズオン

speakerdeck.com

Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding -- A Survey

arxiv.org

  • 表形式のデータに対し、LLMを活用するための課題やアプローチをまとめたサーベイ論文

深層学習VS決定木:テーブルデータ分析の未来

voice.pkshatech.com

  • テーブルデータにおける従来手法と深層学習の比較論文を紹介した記事
  • 決定木ベースモデルの性能がハイパーバラメータチューニングの回数によらず全面的に深層学習モデルを上回っている
  • 深層学習ベースのモデルは決定木ベースよりも性能が劣っている3つの理由も説明されている

GPT-4とClaude3(Opus)で特許の請求項を比較

note.com

  • 特許比較タスクに特化したシステムプロンプトで、提案内容と既存特許の情報を与えると、類似性と侵害の可能性について考察するよう指示した

Claude 3 vs GPT 早見表[料金・トークン・性能]

note.com

Google Colab で Claude 3 の Vision を試す

note.com

【OpenAI本出版記念】npakaによるOpenAI最新技術情報と技術情報キャッチアップ術

speakerdeck.com

エンジニアの強力な付加価値スキルとしての発信力

blog.song.mu

  • あまり打算的にならずに楽しむことが逆に継続するコツ
  • 変に注目を集めようとしすぎると炎上リスクは高まる

「GPT-4超え」とうわさのAI「Claude 3」を試す 仕事は任せられる? 若手記者の所感

www.itmedia.co.jp

GPT4を使用したVision&Languageモデルの評価手法LLaVA-Benchを試す

qiita.com

  • LLaVA-BenchとはVisual Instruction Tuningで提案された画像理解と会話能力をGPT4を利用して定量的に図るために提案されたベンチマーク

プロンプトライブラリ

docs.anthropic.com

  • Claude用のプロンプトライブラリ

Enabling and Analyzing How to Efficiently Extract Information from Hybrid Long Documents with LLMs

arxiv.org

  • テキストと表形式のデータを含むテキストから情報を理解し、抽出する能力を強化するフレームワークを提案した論文