デイリーインテリジェンス · 2026年4月3日

知性の最前線を、
毎朝あなたに。

人工知能が生み出す知の断片を収集・要約。
12件の記事を Gemini 2.5 Flash が厳選しました。

速報インテリジェンス

3件
Google DeepMind Blog TOP 95

Google、より高性能なオープンモデル「Gemma 4」を発表 - 高度な推論とエージェントワークフロー向け

Google DeepMindは、これまでで最も高性能なオープンモデル「Gemma 4」を発表しました。このモデルは、高度な推論能力とエージェントワークフローに特化して構築されており、オンデバイスでのマルチモーダルインテリジェンスにも対応します。

LLMオープンソース研究
4/2
YouTube TOP 90

AnthropicのClaude Codeソースコード流出と、それを活用した9Bモデルの最適化事例

AnthropicのClaude Codeのソースコードがnpmパッケージから一時的に流出し、その内部アーキテクチャが公開されました。この流出コードを分析し、そこから得られた知見を基に9Bモデルを最適化し、本番環境レベルのAIエージェントへと変貌させた事例が報告されています。

エージェントオープンソース研究
3/31
OpenAI Blog TOP 88

OpenAI、AIとメディアの対話を加速するためTBPNを買収

OpenAIは、AIに関するグローバルな対話を加速し、独立系メディアを支援するため、IT特化型ビジネス番組「TBPN」を買収しました。TBPNは買収後も編集の独立性を維持し、AI開発者、企業、そして広範なテックコミュニティとの対話の場を提供します。

OpenAIコミュニティAI Now
4/2

詳報

9件
Meta Engineering Blog TOP 85

Meta、AIエージェント「KernelEvolve」でAIインフラ最適化を推進

Metaは、自律型AIエージェント「KernelEvolve」を用いて、AIインフラの最適化を進めています。これは、広告ランキングシステムにおける機械学習モデルの低レベルインフラを効率化し、AI開発のイノベーションを加速させることを目的としています。

エージェント研究開発効率化
4/2
ArXiv AI HOT 82

マルチエージェントLLMフレームワークの進化:安全性、適応性、信頼性への挑戦

AIエージェント、特にマルチエージェントLLMシステムは、その複雑な協調メカニズムを通じて、医療予測や行動健康コミュニケーションシミュレーションなどの多様なタスクで進化しています。これらのシステムは、安全性、ケース適応性、そして信頼性の向上を目指し、新たなフレームワークが提案されています。

エージェントLLM研究
4/2
ArXiv AI HOT 78

AIの感情:LLMとエージェントの行動を形成するメカニズムの研究

大規模言語モデル(LLM)とAIエージェントの行動を、人間の感情信号に類似した形で操作する研究が進んでいます。E-STEERフレームワークは、感情を隠れ状態の構造化された制御変数として埋め込み、客観的推論や主観的生成、安全性、マルチステップエージェント行動への影響を検証します。

LLMエージェント研究
4/2
Zenn LLM HOT 75

Ollama 0.19がApple Silicon向けにMLXを採用、ローカルLLM推論性能が約2倍に向上

Ollamaのバージョン0.19プレビュー版がリリースされ、Apple Silicon向けの推論バックエンドが従来のllama.cppからApple製フレームワーク「MLX」に切り替わりました。これにより、NVFP4量子化との組み合わせでデコード性能が約2倍に向上し、MacユーザーのローカルLLM推論体験が大幅に改善されます。

LLMオープンソース開発効率化
3/31
Zenn AI HOT 70

AIエージェントの「自律決済」実現に向けたHTTP 402とHATEOAS活用フレームワーク

AIエージェントが自律的にAPIへの支払い(決済)を行える「自律決済」の実現を目指し、HTTP 402(Payment Required)ステータスコードとHATEOAS(Hypermedia as the Engine of Application State)を組み合わせたテストベッドが開発されました。これは、Agentic Webの未来を切り拓くための重要な一歩です。

エージェント開発効率化研究
4/2
TechCrunch AI

Microsoft、AI競合に対抗する3つの新しい基盤モデルを発表 - 音声・画像生成能力を強化

MicrosoftのMAI(Microsoft AI)グループは、音声からテキストへの転写、音声生成、画像生成が可能な3つの新しい基盤モデルを発表しました。これは、GoogleやOpenAIなどの主要なAI競合他社に対抗し、マイクロソフトのAI能力を大幅に強化するものです。

LLM音声画像生成
4/2
ArXiv NLP

Dynin-Omni: 全てのモダリティを統一したマスク拡散型大規模言語モデル

Dynin-Omniは、テキスト、画像、音声の理解と生成に加え、動画理解も単一アーキテクチャで統合した初のマスク拡散型オムニモーダル基盤モデルです。これにより、異種モダリティを統一されたトークン空間で反復的に洗練することが可能になります。

LLMマルチモーダル研究
4/2
ArXiv NLP

TransformerベースLLMにおける線形メモリ注意蒸留とRoPE復元「LinearARD」

大規模言語モデル(LLM)のコンテキスト窓拡張はRoPEなどの位置エンコーディングスケーリングで行われますが、短いテキスト性能を損なう問題があります。LinearARDは、線形メモリ注意蒸留を通じて、RoPEスケールされたモデルの元の能力を復元する自己蒸留手法を提案します。

LLM研究開発効率化
4/2
ArXiv AI

LLM活用のコンピュータサイエンス教育における「目的ドリフト」と人間参加型制御の重要性

LLMアシスト型プログラミングツールがコンピュータサイエンス教育に浸透する中で、AIが生成する局所的に妥当な出力が、本来のタスク仕様から逸脱する「目的ドリフト」が課題となっています。本研究は、人間参加型(Human-in-the-Loop, HITL)制御を安定した教育問題と捉え、その解決策を提案します。

LLM研究開発効率化
4/2