SEが最近起こったことを書くブログ

ITエンジニアが試したこと、気になったことを書いていきます。

2024年2月19日の週に気になった記事などまとめ

仕事で差をつけるChatGPT活用術。初心者でも使えるテクニックを達人に聞く

meetscareer.tenshoku.mynavi.jp

  • ChatGPTは「どうやって検索したらいいか分からないことを調べるツール」で、検索エンジンは「調べたいことが言語化できている事柄について調べるツール」
  • ChatGPTでの調べものは「他人に相談する」ニュアンスに近い
  • 求めるアウトプットにつなげるためのコツ
    • できるだけ具体的に指示する」
    • 「指示の内容は一つずつに分ける」
    • 「例を挙げる」

論文検索GPTs6選+純正ブラウジング(Bing)の比較

note.com

  • 論文検索における最良の選択肢は、文献データベースを内蔵しているGPTサービス
  • ScholarAIはバランスが最も優れており、TXYZは文献の選択が素晴らしい

マルチモーダルLLM時代のベンチマークから見たGPT-4VとGeminiの比較

ainow.ai

  • 多言語翻訳、医療画像認識のような一部の専門的タスクにおいて、Gemini ProはGPT-4Vを上回る
  • GPT-4VとGemini Ultraを比較したベンチマーク結果はまだ多くないものも、その結果にもとづけば、専門家レベルの知識や推論を必要とするタスクにおいて後者は前者を上回る

Power Query でクエリを関数化する方法

qiita.com

KARAKURI LM を ELYZA-tasks-100 で評価してみた

qiita.com

  • KARAKURI LM を ELYZA-tasks-100 ベンチマークで評価したところ、これまで評価したオープンアクセスモデルのなかで最高スコアをマーク

KARAKURI-LM-70bをOllamaで動かしてみる

note.com

継続のコツは「わざわざ見に行く」をなくすこと。はてなフロントエンドエキスパートmizdraの情報収集術

levtech.jp

  • 必要な情報は全てTwitterGitHubに集まる仕組みをつくっている
  • 気になる記事を見つけたらその場でしっかり読んでいる
  • あとでじっくり読みたい記事などはChromeのタブとして開いておいて、業務の合間に読む
  • この技術が生まれることで、どんな課題を解決できるのか。また、その課題は解決に値するものなのか」を考える
  • 「必要な情報を追い切るまで諦めないこと」

AIベンダーを活用しきれず、PoCを失敗させていないか?事業会社が回避すべきアンチパターン

www.moderntimes.tv

  • マイクロマネジメントを避け、会議の回数を減らし、開発に関係ない業務は依頼者側で対応することが求められる。これにより、高品質のAIモデルの開発に集中し、プロジェクトの成功を目指すことができる

弊社のAzureリソースグループの分け方を紹介します

zenn.dev

  • サブシステムごとにリソースグループを分ける
    • 不要な機能をまとめて消すため
  • コスト管理の単位でリソースグループを分ける

Google Colab で kotomamba を試す

note.com

  • 「kotomamba」は、革新的な状態空間モデル「mamba」アーキテクチャを活用した、日本語LLM
  • Colabで動かす場合は、cu118にダウングレードする必要がある

Kotomamba: mamba-2.8B 学習知見

zenn.dev

  • 以下の二つのmambaモデルをリリースした
    • from scratchから日本語と英語のコーパスにて学習を行ったkotomamba-2.8B-v1.0
    • state-spaces/mamba-2.8b-slimpjから日本語と英語で継続事前学習を行ったkotomamba-2.8b-CL-v1.0
  • 同規模のTransformerモデルと遜色ない性能を発揮

Open WebUI(旧 Ollama WebUI)をインストールして使ってみる

note.com

LLama2の訓練可能な全層をQLoRAで学習する

note.com

  • QLoRAの状況について整理しつつ、学習可能なパラメータを増やしてファインチューニングをしてみた記事
  • 全層学習させた方が、早く訓練データに適合することがわかった

Document Intelligence preview adds query fields, new prebuilt models and other improvements

techcommunity.microsoft.com

  • Azure AI Document Intelligenceはマークダウンで出力することもできる

Microsoftが作ったWindows OS Copilotみたいな動きをするUFOの使い方

note.com

ReazonSpeech v2, whisper-large v3, nue-asrを比較してみた

note.com

  • ReazonSpeech v2は書き起こしのエラーが少なかった

科学的根拠に基づく最高の勉強法がガチで良かった話

note.com

On Your Data is now Generally Available in Azure OpenAI Service

techcommunity.microsoft.com

  • Azure OpenAI ServiceのOn Your DataがGAされた
  • プライベートエンドポイント経由でAzure AI SearchやAzure Blob Storageにアクセスできる
  • ローカルファイルやURL/WebアクセスのデータからRAGできる
  • 取得するドキュメント数や厳密さを設定できる

Google Colab で ReazonSpeech v2 を試す

note.com

Mambaを動かして速度をtransformerと比較するメモ

note.com

  • T4 GPUでの比較では、mamba (>30 tokens/sec)がtransformer(~ 15 tokens/sec)よりも2倍以上、早い

【AOAIドーナツ本出版記念】AzureでのChatGPT活用入門【基本から周辺サービスまで解説

speakerdeck.com

  • Azure AI Search概要とRAGシステムの構築について説明されている

Googleのオープンモデル Gemma の概要

note.com

  • 事前学習および指示チューニングされたモデルが公開されている
  • 「Keras 3.0」を介して、JAX、PyTorch、TensorFlow など、すべての主要なフレームワークにわたって推論と教師ありファインチューニング (SFT) のためのツールチェーンを提供

HuggingFace の Gemma 統合

note.com

  • ベースモデルにはプロンプト書式はない
  • Transformersで「gemma-7b-it」を使用するには約18GBのRAMが必要
  • 4bit読み込みの実行には約9GBのメモリが必要

GemmaをGoogle ColabやローカルPCで動かす

zenn.dev

プロンプトは考えたくないけど画像生成がしたい!

  • Danbooru タグを生成・補完してくれる LLM を作成した記事
  • Danbooru タグで生成したい画像の要素を指定する

大規模言語モデルを作る、拡張する

speakerdeck.com

  • モデルのかなりの能力は事前学習で定まる
  • データ量:パラメータ数=20:1にするとよい
  • 最近はモデルサイズは抑え、データを過剰にしている
  • データにはきわめて高い品質が求められる
  • 事後学習は機能とその要件を決めるが5割

AgentScope: A Flexible yet Robust Multi-Agent Platform

huggingface.co

  • マルチエージェントアプリケーションのメッセージ交換を備えたプラットフォームを提案した論文

生成AIプロダクト開発において技術的に重要な点

www.docswell.com

  • ライセンスの中でApache-2.0が一番問題が少ない

Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance

arxiv.org

  • プロンプトの丁寧さがLLMのパフォーマンスに及ぼす影響を調査した論文

gemma tokenizerとその他のtokenizer比較

zenn.dev

  • llama2、gemma、llm-jp、elyzaのtokenizerを比較した記事

gemma_finetune_lora.py

gist.github.com

  • GemmaをLoraでファインチューニングするコード

pdfからtextを抜き出す試行錯誤のメモ

note.com

  • Unstructured、Grobid、PyMuPDF、手動操作でのテキスト抽出を比較した記事

Best Practices for LLM Evaluation of RAG Applications

www.databricks.com

  • LLMの自動評価のベストプラクティスを紹介した記事

日本語チャットボットアリーナ

huggingface.co

  • 日本語に対応しているLLMの評価のリーダーボード

2024年版:独断と偏見で選ぶ、データ分析職の方々にお薦めしたいホットトピックス&定番の書籍リスト

tjo.hatenablog.com

PreAct: Predicting Future in ReAct Enhances Agent's Planning Ability

arxiv.org

  • エージェントに予測による結果を活用させることでタスク遂行能力が上がるかを確認した論文

Learning From Failure: Integrating Negative Examples when Fine-tuning Large Language Models as Agents

arxiv.org

  • タスクの失敗事例をファインチューニングに活用する方法を提案する論文
  • 失敗事例を失敗と理解させるファインチューニングを行う

Large Language Model-based Human-Agent Collaboration for Complex Task Solving

arxiv.org

  • エージェントタスク遂行に限定的に人間が介入することでパフォーマンスが向上することを示した論文

3か月試してわかった、Copilot for Microsoft 365の実力とユースケース

note.com

  • 最も効果的な活用シーンは、「情報収集/探索」と「会議による議論/情報共有」
  • PowerPointの資料作成する際は、Wordでざっと言いたいことを書いてから、PowerPointでスライドに仕上げる

ENOG81: AWSIPv6とPublic IPv4のおはなし

speakerdeck.com

  • 持ち込んだIPv6アドレスも利用できる
  • IPv6を有効にするとデュアルスタックとなる
  • Egress-only Internet Gateway
  • NAT Gateway
    • VPC上のIPv6を持つリソースがインターネット上のIPv4しか持たないリソースにアクセスしたい場合に利用する

"違和感" から見つける脆弱性

speakerdeck.com

実行例で理解する Runnable in langchain

qiita.com

WSL2でgemma.cppを試してみる

note.com

大規模言語モデルを作ります(10-50b, 2024年3-8月頃)

note.com

【事例大全】Azure OpenAI を利用する Digital Native/Startup まとめ

qiita.com