- 仕事で差をつけるChatGPT活用術。初心者でも使えるテクニックを達人に聞く
- 論文検索GPTs6選+純正ブラウジング(Bing)の比較
- マルチモーダルLLM時代のベンチマークから見たGPT-4VとGeminiの比較
- Power Query でクエリを関数化する方法
- KARAKURI LM を ELYZA-tasks-100 で評価してみた
- KARAKURI-LM-70bをOllamaで動かしてみる
- 継続のコツは「わざわざ見に行く」をなくすこと。はてなフロントエンドエキスパートmizdraの情報収集術
- AIベンダーを活用しきれず、PoCを失敗させていないか?事業会社が回避すべきアンチパターン
- 弊社のAzureリソースグループの分け方を紹介します
- Google Colab で kotomamba を試す
- Kotomamba: mamba-2.8B 学習知見
- Open WebUI(旧 Ollama WebUI)をインストールして使ってみる
- LLama2の訓練可能な全層をQLoRAで学習する
- Document Intelligence preview adds query fields, new prebuilt models and other improvements
- Microsoftが作ったWindows OS Copilotみたいな動きをするUFOの使い方
- ReazonSpeech v2, whisper-large v3, nue-asrを比較してみた
- 科学的根拠に基づく最高の勉強法がガチで良かった話
- On Your Data is now Generally Available in Azure OpenAI Service
- Google Colab で ReazonSpeech v2 を試す
- Mambaを動かして速度をtransformerと比較するメモ
- 【AOAIドーナツ本出版記念】AzureでのChatGPT活用入門【基本から周辺サービスまで解説
- Googleのオープンモデル Gemma の概要
- HuggingFace の Gemma 統合
- GemmaをGoogle ColabやローカルPCで動かす
- プロンプトは考えたくないけど画像生成がしたい!
- 大規模言語モデルを作る、拡張する
- AgentScope: A Flexible yet Robust Multi-Agent Platform
- 生成AIプロダクト開発において技術的に重要な点
- Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance
- gemma tokenizerとその他のtokenizer比較
- gemma_finetune_lora.py
- pdfからtextを抜き出す試行錯誤のメモ
- Best Practices for LLM Evaluation of RAG Applications
- 日本語チャットボットアリーナ
- 2024年版:独断と偏見で選ぶ、データ分析職の方々にお薦めしたいホットトピックス&定番の書籍リスト
- PreAct: Predicting Future in ReAct Enhances Agent's Planning Ability
- Learning From Failure: Integrating Negative Examples when Fine-tuning Large Language Models as Agents
- Large Language Model-based Human-Agent Collaboration for Complex Task Solving
- 3か月試してわかった、Copilot for Microsoft 365の実力とユースケース
- ENOG81: AWSのIPv6とPublic IPv4のおはなし
- "違和感" から見つける脆弱性
- 実行例で理解する Runnable in langchain
- WSL2でgemma.cppを試してみる
- 大規模言語モデルを作ります(10-50b, 2024年3-8月頃)
- 【事例大全】Azure OpenAI を利用する Digital Native/Startup まとめ
仕事で差をつけるChatGPT活用術。初心者でも使えるテクニックを達人に聞く
meetscareer.tenshoku.mynavi.jp
- ChatGPTは「どうやって検索したらいいか分からないことを調べるツール」で、検索エンジンは「調べたいことが言語化できている事柄について調べるツール」
- ChatGPTでの調べものは「他人に相談する」ニュアンスに近い
- 求めるアウトプットにつなげるためのコツ
- できるだけ具体的に指示する」
- 「指示の内容は一つずつに分ける」
- 「例を挙げる」
論文検索GPTs6選+純正ブラウジング(Bing)の比較
- 論文検索における最良の選択肢は、文献データベースを内蔵しているGPTサービス
- ScholarAIはバランスが最も優れており、TXYZは文献の選択が素晴らしい
マルチモーダルLLM時代のベンチマークから見たGPT-4VとGeminiの比較
- 多言語翻訳、医療画像認識のような一部の専門的タスクにおいて、Gemini ProはGPT-4Vを上回る
- GPT-4VとGemini Ultraを比較したベンチマーク結果はまだ多くないものも、その結果にもとづけば、専門家レベルの知識や推論を必要とするタスクにおいて後者は前者を上回る
Power Query でクエリを関数化する方法
KARAKURI LM を ELYZA-tasks-100 で評価してみた
- KARAKURI LM を ELYZA-tasks-100 ベンチマークで評価したところ、これまで評価したオープンアクセスモデルのなかで最高スコアをマーク
KARAKURI-LM-70bをOllamaで動かしてみる
継続のコツは「わざわざ見に行く」をなくすこと。はてなフロントエンドエキスパートmizdraの情報収集術
- 必要な情報は全てTwitterとGitHubに集まる仕組みをつくっている
- 気になる記事を見つけたらその場でしっかり読んでいる
- あとでじっくり読みたい記事などはChromeのタブとして開いておいて、業務の合間に読む
- この技術が生まれることで、どんな課題を解決できるのか。また、その課題は解決に値するものなのか」を考える
- 「必要な情報を追い切るまで諦めないこと」
AIベンダーを活用しきれず、PoCを失敗させていないか?事業会社が回避すべきアンチパターン
- マイクロマネジメントを避け、会議の回数を減らし、開発に関係ない業務は依頼者側で対応することが求められる。これにより、高品質のAIモデルの開発に集中し、プロジェクトの成功を目指すことができる
弊社のAzureリソースグループの分け方を紹介します
- サブシステムごとにリソースグループを分ける
- 不要な機能をまとめて消すため
- コスト管理の単位でリソースグループを分ける
Google Colab で kotomamba を試す
- 「kotomamba」は、革新的な状態空間モデル「mamba」アーキテクチャを活用した、日本語LLM
- Colabで動かす場合は、cu118にダウングレードする必要がある
Kotomamba: mamba-2.8B 学習知見
- 以下の二つのmambaモデルをリリースした
- from scratchから日本語と英語のコーパスにて学習を行ったkotomamba-2.8B-v1.0
- state-spaces/mamba-2.8b-slimpjから日本語と英語で継続事前学習を行ったkotomamba-2.8b-CL-v1.0
- 同規模のTransformerモデルと遜色ない性能を発揮
Open WebUI(旧 Ollama WebUI)をインストールして使ってみる
LLama2の訓練可能な全層をQLoRAで学習する
- QLoRAの状況について整理しつつ、学習可能なパラメータを増やしてファインチューニングをしてみた記事
- 全層学習させた方が、早く訓練データに適合することがわかった
Document Intelligence preview adds query fields, new prebuilt models and other improvements
- Azure AI Document Intelligenceはマークダウンで出力することもできる
Microsoftが作ったWindows OS Copilotみたいな動きをするUFOの使い方
ReazonSpeech v2, whisper-large v3, nue-asrを比較してみた
- ReazonSpeech v2は書き起こしのエラーが少なかった
科学的根拠に基づく最高の勉強法がガチで良かった話
On Your Data is now Generally Available in Azure OpenAI Service
- Azure OpenAI ServiceのOn Your DataがGAされた
- プライベートエンドポイント経由でAzure AI SearchやAzure Blob Storageにアクセスできる
- ローカルファイルやURL/WebアクセスのデータからRAGできる
- 取得するドキュメント数や厳密さを設定できる
Google Colab で ReazonSpeech v2 を試す
Mambaを動かして速度をtransformerと比較するメモ
- T4 GPUでの比較では、mamba (>30 tokens/sec)がtransformer(~ 15 tokens/sec)よりも2倍以上、早い
【AOAIドーナツ本出版記念】AzureでのChatGPT活用入門【基本から周辺サービスまで解説
- Azure AI Search概要とRAGシステムの構築について説明されている
Googleのオープンモデル Gemma の概要
- 事前学習および指示チューニングされたモデルが公開されている
- 「Keras 3.0」を介して、JAX、PyTorch、TensorFlow など、すべての主要なフレームワークにわたって推論と教師ありファインチューニング (SFT) のためのツールチェーンを提供
HuggingFace の Gemma 統合
- ベースモデルにはプロンプト書式はない
- Transformersで「gemma-7b-it」を使用するには約18GBのRAMが必要
- 4bit読み込みの実行には約9GBのメモリが必要
GemmaをGoogle ColabやローカルPCで動かす
プロンプトは考えたくないけど画像生成がしたい!
大規模言語モデルを作る、拡張する
- モデルのかなりの能力は事前学習で定まる
- データ量:パラメータ数=20:1にするとよい
- 最近はモデルサイズは抑え、データを過剰にしている
- データにはきわめて高い品質が求められる
- 事後学習は機能とその要件を決めるが5割
AgentScope: A Flexible yet Robust Multi-Agent Platform
- マルチエージェントアプリケーションのメッセージ交換を備えたプラットフォームを提案した論文
生成AIプロダクト開発において技術的に重要な点
- ライセンスの中でApache-2.0が一番問題が少ない
Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance
- プロンプトの丁寧さがLLMのパフォーマンスに及ぼす影響を調査した論文
gemma tokenizerとその他のtokenizer比較
- llama2、gemma、llm-jp、elyzaのtokenizerを比較した記事
gemma_finetune_lora.py
- GemmaをLoraでファインチューニングするコード
pdfからtextを抜き出す試行錯誤のメモ
- Unstructured、Grobid、PyMuPDF、手動操作でのテキスト抽出を比較した記事
Best Practices for LLM Evaluation of RAG Applications
- LLMの自動評価のベストプラクティスを紹介した記事
日本語チャットボットアリーナ
- 日本語に対応しているLLMの評価のリーダーボード
2024年版:独断と偏見で選ぶ、データ分析職の方々にお薦めしたいホットトピックス&定番の書籍リスト
PreAct: Predicting Future in ReAct Enhances Agent's Planning Ability
- エージェントに予測による結果を活用させることでタスク遂行能力が上がるかを確認した論文
Learning From Failure: Integrating Negative Examples when Fine-tuning Large Language Models as Agents
- タスクの失敗事例をファインチューニングに活用する方法を提案する論文
- 失敗事例を失敗と理解させるファインチューニングを行う
Large Language Model-based Human-Agent Collaboration for Complex Task Solving
- エージェントタスク遂行に限定的に人間が介入することでパフォーマンスが向上することを示した論文
3か月試してわかった、Copilot for Microsoft 365の実力とユースケース
- 最も効果的な活用シーンは、「情報収集/探索」と「会議による議論/情報共有」
- PowerPointの資料作成する際は、Wordでざっと言いたいことを書いてから、PowerPointでスライドに仕上げる
ENOG81: AWSのIPv6とPublic IPv4のおはなし
"違和感" から見つける脆弱性
実行例で理解する Runnable
in langchain
- langchain フレームワーク内の Runnable クラスについて説明した記事