知性の最前線を、
毎朝あなたに。
人工知能が生み出す知の断片を収集・要約。
12件の記事を Gemini 2.5 Flash が厳選しました。
速報インテリジェンス
3件OpenAI、サイバー防衛プログラムを拡大し「GPT-5.4-Cyber」を導入
OpenAIは、サイバー防衛のためのTrusted Accessプログラムを拡大し、厳選された防衛担当者向けに高性能な「GPT-5.4-Cyber」を導入しました。これによりAIのサイバーセキュリティ能力が向上するとともに、安全対策も強化されます。
Google DeepMind、ロボットに「Gemini Robotics ER 1.6」で高度な空間推論と多視点理解を付与
Google DeepMindは、ロボットの現実世界タスク実行能力を強化するため、Gemini Robotics ER 1.6を発表しました。これにより、ロボットは高度な空間推論と多視点理解が可能となり、より複雑な物理環境での自律的な動作が実現します。
AIエージェントの「記憶喪失」問題解決へ:セッションログから長期記憶を自動構築する完全ローカルOSS
AIエージェントがセッションごとに記憶を失うという課題に対し、セッションログから自動で長期記憶を構築する完全ローカル動作のオープンソースツールが発表されました。これにより、AIエージェントの連続的な学習と応用が可能になります。
詳報
9件AnthropicがOpus 4.7を準備中、Claude Codeに「ルーティン」と「自動研究プラグイン」が追加
Anthropicは主力AIモデルOpus 4.7のリリースを準備しており、同時にClaude Codeには、自動ワークフロー「ルーティン」と、コードベース最適化のための「自動研究プラグイン」が導入されます。これにより、開発者の生産性とAIの自律性が向上します。
AIが実バグ73件を自律修復!「CoDD」がSWE-benchで驚異的な成果
AIエージェント「CoDD」が、金曜の夜に稼働させると、GitHubの実プロジェクトから抽出された73件のバグを朝までに全て自律的に修正したと報告されました。これは、AIによるソフトウェア開発の自律化における画期的な成果です。
Google ChromeにAIスキル「Skills」が追加、定型ワークフローを保存・再利用可能に
GoogleはChromeにAIスキル「Skills」を導入し、ユーザーがウェブサイト横断でAIプロンプトを用いた定型ワークフローを保存・再利用できるようにします。これにより、Geminiのブラウザ統合がさらに強化され、日常の作業効率が向上します。
Google Gemini、「パーソナルインテリジェンス」を日本で提供開始 — Gmailなどと連携し個別最適化された回答
Googleは、対話AIアプリ「Gemini」の「パーソナルインテリジェンス」機能を日本で開始しました。これにより、ユーザーはGmailやGoogleフォトなどのGoogleサービス上の情報を活用し、よりパーソナルに最適化された回答やサポートを受けられるようになります。
AIエージェント戦争が勃発:10のエージェント、4つのアーキテクチャ、1つの勝者(今のところ)
AIコーディングエージェント市場が急速に進化し、OpenHands 1.0、SWE-agent 2.0、Aiderの自律化など、10を超えるエージェントがマイルストーンを達成しました。Llama 4の登場も相まって、熾烈な開発競争が繰り広げられています。
AIに1週間仕事を任せたら「最強の部下かつ最悪の上司」だった体験談
自分の業務すべてをAIに任せる1週間の実験で、メール返信や資料作成は高効率でこなす「最強の部下」ぶりを発揮するも、3日目には業務が崩壊。AIが「最悪の上司」となり得る限界と課題が浮き彫りになりました。
日本初のヒューマノイド「Unitree G1」が筑波大学附属病院で実証実験を開始
株式会社ZEALSとQuickが、日本で初めてヒューマノイドロボット「Unitree G1」を用いた実証実験を筑波大学附属病院で実施しました。これにより、医療現場におけるヒューマノイドの可能性が検証されます。
生成AI導入企業の8割が「ガバナンス不足」―安全なAI活用に不可欠な4要素とは
生成AIを導入した企業の8割がガバナンス不足を認識しており、安全かつ効果的なAI活用には、信頼性の高いデータ、透明性のあるモデル、責任ある運用、そして強固なセキュリティの4要素が不可欠であることが指摘されています。
LLMの過信を是正する「Self-Calibrating Language Models (SECL)」:テスト時識別蒸留で精度向上
大規模言語モデル(LLM)の過信問題に対処するため、テスト時識別蒸留を用いた「SECL」が提案されました。これにより、LLMの「この回答は正しいか?」という識別信号を活用し、追加データなしでモデルの信頼性を効果的に改善します。