- Evaluating Large Language Model (LLM) systems: Metrics, challenges, and best practices
- Grok-1
- Advanced RAG Series: Retrieval
- An End-to-End Framework for Production-Ready LLM Systems by Building Your LLM Twin
- RAFT: Adapting Language Model to Domain Specific RAG
- Android端末でOpen Interpreterを使用する方法
- ChatGPTを活用してサーキュレーターの異常検知をやってみた!
- クラウドサーバーでのAI学習手順【AWS編2024年版】
- どのような場面で多重比較補正が必要なのか
- RAGの実装戦略まとめ
- LangGraph を用いた LLM エージェント、Plan-and-Execute Agents の実装解説
- 作って学ぶ日本語大規模言語モデル
- LLMLingua-2: Data Distillation for Efficient and Faithful Task-Agnostic Prompt Compression
- くふうカンパニーグループの "AX" は 1 年でどこまで進んだか
- Swallow-MX 8x7b NVE v0.1 を ELYZA-tasks-100 で評価してみた
- Evolving New Foundation Models: Unleashing the Power of Automating Model Development
- 他人がGPT-4とやりとりしたテキストを盗む攻撃 成功率50%以上 イスラエルの研究者らが発表
- RankPrompt: Step-by-Step Comparisons Make Language Models Better Reasoners
- Simplify private connectivity to Amazon DynamoDB with AWS PrivateLink
- Azure OpenAI Developers セミナー第 3 回
- コスト最適化by オーナーシップ ~俺たちはQuick Winで満足しない~
- ao-Karasu:最先端の72B日本語LLM開発
- LLM開発のための環境構築
- SakanaAI EvoLLM-JP-v1-7Bを試した。これからのマルチモーダルAIに必要なデータについて
- ChromeDBとBeluuuuuuga/Japanese-Instruction-Linux-Command-169を使って質問に対する適切なLinuxコマンドを探すRAGを構築する
Evaluating Large Language Model (LLM) systems: Metrics, challenges, and best practices
- LLMシステムの評価方法についてまとめた記事
Grok-1
Advanced RAG Series: Retrieval
- Retrievalのテクニックについて紹介した記事
An End-to-End Framework for Production-Ready LLM Systems by Building Your LLM Twin
RAFT: Adapting Language Model to Domain Specific RAG
- 質問に答えるのに役に立たない文書を無視するようにモデルをトレーニングする手法の紹介
- これにCoTスタイルの応答を組み合わせることで、推論能力が高まる
Android端末でOpen Interpreterを使用する方法
ChatGPTを活用してサーキュレーターの異常検知をやってみた!
クラウドサーバーでのAI学習手順【AWS編2024年版】
どのような場面で多重比較補正が必要なのか
RAGの実装戦略まとめ
- ベクター計算は固有名詞を含む単語の影響が薄くなる
LangGraph を用いた LLM エージェント、Plan-and-Execute Agents の実装解説
- LangChainに基づいたエージェント作成方法を紹介する記事
作って学ぶ日本語大規模言語モデル
LLMLingua-2: Data Distillation for Efficient and Faithful Task-Agnostic Prompt Compression
- タスクの精度を維持したまま、プロンプトを2~5倍圧縮する手法の提案
くふうカンパニーグループの "AX" は 1 年でどこまで進んだか
Swallow-MX 8x7b NVE v0.1 を ELYZA-tasks-100 で評価してみた
- k-quant 量子化モデル (GGUFフォーマット、q4_K_M)をllama.cppで評価した
Evolving New Foundation Models: Unleashing the Power of Automating Model Development
他人がGPT-4とやりとりしたテキストを盗む攻撃 成功率50%以上 イスラエルの研究者らが発表
RankPrompt: Step-by-Step Comparisons Make Language Models Better Reasoners
- LLM自身によって、回答を再ランクづけさせることで、推論タスク能力を向上させるプロンプト手法が提案された論文
Simplify private connectivity to Amazon DynamoDB with AWS PrivateLink
- DynamoDBがPrivate Linkに対応した
Azure OpenAI Developers セミナー第 3 回
コスト最適化by オーナーシップ ~俺たちはQuick Winで満足しない~
- 予約割引を実施すると、リソース最適化しない場合があるので、注意
- コスト最適化に貢献したことを評価する
ao-Karasu:最先端の72B日本語LLM開発
- Qwen 1.5 72B ChatモデルをベースにLoRAで学習した
- 独自に構築した大規模データセットをつかった