- Awesome-Graph-LLM
- 先日リリースされたGitHub Copilot Enterprise の最速レビュー!〜進化したGitHub Copilotを使ってみた〜
- あなたのRAGは、回答型?それとも検索型?
- webbigdata/C3TR-Adapter
- Introducing the next generation of Claude
- [TU-B-1] LLMと音声理解・生成の最新動向
- [TU-C-2] 大規模言語モデルに基づく検索モデル
- [TU-D-2] LLMの嘘:ハルシネーション解説
- hotchpotch/JQaRA
- KaggleのNLPコンペで初手に使える可視化 〜BERTopicを用いた文書クラスタリングと可視化〜
- RAGでの回答精度向上のためのテクニック集(応用編-A)
- Collect User Feedback in Streamlit
- 大規模言語モデルを用いたゼロショットテキスト分類によるTCFD推奨開示項目の自動判定
- Google Colab で Claude 3 の テキスト生成 を試す
- alfredplpl/wikipedia-qa-ja-500k
- 『技術書を書く技術』というテーマで、JAWS DAYS 2024に登壇しました
- プライベートの時間は極力削らない。Kubernetesエキスパート青山真也氏のコスパ最高な情報収集術
- ゼロから作る Deep Learning ❺
- Azure OpenAI コンテンツフィルターのススメ
- マルチモーダルなAIの活用@LLMProducion
- GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみた
- 日本語Vision Languageモデル heron-blip-v1の公開
- Design2Code: How Far Are We From Automating Front-End Engineering?
- 大規模言語モデルをフルスクラッチする練習 (環境構築ー前処理ー事前学習ーファインチューニングー評価まで)
- データマネジメント入門 - DX推進を支えるデータ基盤の重要性 / 20240125
- rinna、日本語音声処理に適した事前学習モデルを公開
- Google Colab で heron-blip-v1 を試す
- GPT開発の悩みの種「速度」「精度」「評価」の壁をどう超えるか
- Power CAT によるMicrosoft Copilot Studio の実装ガイドが公開されました
- ABEMAの効果検証事例〜効果の異質性を考える〜
- A Survey on LLM-based Autonomous Agents
- Docker ハンズオン
- Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding -- A Survey
- 深層学習VS決定木:テーブルデータ分析の未来
- GPT-4とClaude3(Opus)で特許の請求項を比較
- Claude 3 vs GPT 早見表[料金・トークン・性能]
- Google Colab で Claude 3 の Vision を試す
- 【OpenAI本出版記念】npakaによるOpenAI最新技術情報と技術情報キャッチアップ術
- エンジニアの強力な付加価値スキルとしての発信力
- 「GPT-4超え」とうわさのAI「Claude 3」を試す 仕事は任せられる? 若手記者の所感
- GPT4を使用したVision&Languageモデルの評価手法LLaVA-Benchを試す
- プロンプトライブラリ
- Enabling and Analyzing How to Efficiently Extract Information from Hybrid Long Documents with LLMs
Awesome-Graph-LLM
先日リリースされたGitHub Copilot Enterprise の最速レビュー!〜進化したGitHub Copilotを使ってみた〜
あなたのRAGは、回答型?それとも検索型?
- 回答型RAG
- 情報を参照して要約した回答を求める
- 検索型RAG
- 検索結果そのものを求める
- 情報の正確性が特に重要視される場面
webbigdata/C3TR-Adapter
- gemma-7bの日英・英日翻訳性能を向上させるQLoRA Adapter
Introducing the next generation of Claude
- Claude3が発表された
- Claude3 OpusはベンチマークでGPT-4を超えている
- 日本語の解説記事
- テクニカルレポートはこちら
[TU-B-1] LLMと音声理解・生成の最新動向
- 大規模言語モデル(Large Language Model; LLM)および、LLMのマルチモーダル拡張における音声の理解と生成の分野に着目した資料
[TU-C-2] 大規模言語モデルに基づく検索モデル
[TU-D-2] LLMの嘘:ハルシネーション解説
https://deim2024-tutorial-public.s3.ap-northeast-1.amazonaws.com/TU-D-2_LLM%E3%81%AE%E5%98%98.pdf[
- LLMの構築方法からハルシネーション解消に向けたアプローチまでを解説した資料
hotchpotch/JQaRA
- 検索拡張(RAG)評価のための日本語 Q&A データセット
KaggleのNLPコンペで初手に使える可視化 〜BERTopicを用いた文書クラスタリングと可視化〜
- BERTopicを使って可視化する方法をまとめた記事
RAGでの回答精度向上のためのテクニック集(応用編-A)
Collect User Feedback in Streamlit
- StreamlitのUIにフィードバッグを付けるチュートリアル
大規模言語モデルを用いたゼロショットテキスト分類によるTCFD推奨開示項目の自動判定
https://www.jpx.co.jp/corporate/research-study/working-paper/JPXWP_Vol43.pdf
- LLMsを用いたゼロショットテキスト分類でTFCD推奨開示項目の充足状況を機械的に分類する手法を提案した
Google Colab で Claude 3 の テキスト生成 を試す
alfredplpl/wikipedia-qa-ja-500k
『技術書を書く技術』というテーマで、JAWS DAYS 2024に登壇しました
プライベートの時間は極力削らない。Kubernetesエキスパート青山真也氏のコスパ最高な情報収集術
- 毎日のルーティンの中で、QiitaやZennを含む技術記事を読むときも、Twitter上で注目を集めている記事から辿る
- ルーティンでの情報収集の目的は業界のトレンドを掴むこと
- 専門性を高めるための情報収集のために、国内外のカンファレンスやMeetup、勉強会に積極的に参加する
- 専門領域の具体的なプラクティスを最小限の労力で一気にキャッチアップできる
- 各プロダクトの概要だけ掴んでおけば、全ての最新情報を逐一キャッチし続ける必要はない
ゼロから作る Deep Learning ❺
- 書籍『ゼロから作るDeep Learning ❺』(オライリー・ジャパン発行)のサポートサイト
- 書籍で使用するソースコードがまとめられている
Azure OpenAI コンテンツフィルターのススメ
マルチモーダルなAIの活用@LLMProducion
- VLMを活用して各フレームに対するテキストの存在確率を出力
- その出力を活用して時系列解析モデルが行動を検出
GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみた
日本語Vision Languageモデル heron-blip-v1の公開
- LLM部分をフルパラ学習
- 指示チューニング用学習データをllava-1.5の学習に用いられているllava-620kの日本語翻訳モデルを利用
- 最初からLLaVAのデータで学習
Design2Code: How Far Are We From Automating Front-End Engineering?
大規模言語モデルをフルスクラッチする練習 (環境構築ー前処理ー事前学習ーファインチューニングー評価まで)
データマネジメント入門 - DX推進を支えるデータ基盤の重要性 / 20240125
rinna、日本語音声処理に適した事前学習モデルを公開
- 日本語の音声処理に適した事前学習モデルdata2vec 2.0・HuBERT・data2vecを開発し、商用利用可能なApache-2.0ライセンスで公開
Google Colab で heron-blip-v1 を試す
GPT開発の悩みの種「速度」「精度」「評価」の壁をどう超えるか
- GPTモデルが混んでいると、リクエストのキューイングにより、速度が遅い場合がある
- RAGの精度を高める対策
- ドキュメントをQA化するなどの加工をする
- 対話履歴をGPTによるシミュレーションで増やすこともできる
Power CAT によるMicrosoft Copilot Studio の実装ガイドが公開されました
- 個人的に気になった箇所
- 生成型の回答 (Generative Answers) にはAzure OpenAI のモデル GPT-3.5 Turbo を利用
- 会話履歴10ターンはコンテキスト化に利用されている
- すべてのデータソースのTop 3 を検索し検証、要約した結果を返す
- SharePoint をデータソースとして回答する場合の1ファイルの容量は最大3MB
ABEMAの効果検証事例〜効果の異質性を考える〜
A Survey on LLM-based Autonomous Agents
Docker ハンズオン
Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding -- A Survey
- 表形式のデータに対し、LLMを活用するための課題やアプローチをまとめたサーベイ論文
深層学習VS決定木:テーブルデータ分析の未来
- テーブルデータにおける従来手法と深層学習の比較論文を紹介した記事
- 決定木ベースモデルの性能がハイパーバラメータチューニングの回数によらず全面的に深層学習モデルを上回っている
- 深層学習ベースのモデルは決定木ベースよりも性能が劣っている3つの理由も説明されている
GPT-4とClaude3(Opus)で特許の請求項を比較
- 特許比較タスクに特化したシステムプロンプトで、提案内容と既存特許の情報を与えると、類似性と侵害の可能性について考察するよう指示した
Claude 3 vs GPT 早見表[料金・トークン・性能]
Google Colab で Claude 3 の Vision を試す
【OpenAI本出版記念】npakaによるOpenAI最新技術情報と技術情報キャッチアップ術
エンジニアの強力な付加価値スキルとしての発信力
- あまり打算的にならずに楽しむことが逆に継続するコツ
- 変に注目を集めようとしすぎると炎上リスクは高まる
「GPT-4超え」とうわさのAI「Claude 3」を試す 仕事は任せられる? 若手記者の所感
GPT4を使用したVision&Languageモデルの評価手法LLaVA-Benchを試す
プロンプトライブラリ
- Claude用のプロンプトライブラリ
Enabling and Analyzing How to Efficiently Extract Information from Hybrid Long Documents with LLMs
- テキストと表形式のデータを含むテキストから情報を理解し、抽出する能力を強化するフレームワークを提案した論文