● 論文解説
論文解説カテゴリの記事一覧

「AIエージェントのセキュリティ設計」——間接プロンプトインジェクションに対するシステムレベル防御の3原則
arXiv:2603.30016。LLMベースAIエージェントの間接プロンプトインジェクション攻撃に対して、モデルの堅牢性ではなくシステムアーキテクチャで防御する3つの原則を提示。

Learning to Commit:AIコーディングエージェントのPRが却下される本当の理由——arXiv新論文
arXiv:2603.26664に掲載された論文「Learning to Commit」は、LLMベースのコーディングエージェントが生成するPRが実際のメンテナーに却下される根本原因を分析。機能的な正確さではなく、プロジェクト固有の慣習を学習できないことが問題であると指摘し、オンラインリポジトリ記憶による解決策を提案する。

HeiSD(arXiv:2603.17573)——ロボット制御VLAモデルを運動学的推測デコードで2.8倍高速化
VLAモデルのリアルタイムロボット制御における推論遅延をハイブリッド推測デコードと運動学的知識の組み合わせで解決。350ms→138msのレイテンシ改善と2.8倍の推論高速化を達成しながら制御精度を維持した。ロボット制御AIの商用展開を加速させる可能性がある。

WriteBack-RAG:知識ベースを「訓練可能なコンポーネント」として扱う新手法——全設定で平均+2.14%の精度改善
RAGシステムの知識ベースを一度構築したら更新しないという従来の慣習を覆す「WriteBack-RAG」が論文発表。成功した検索事例から知識ユニットを蒸留してコーパスに追記するだけで、4種のRAG手法・6ベンチマーク全てで平均+2.14%の改善を達成した。

HyperAgents:自己改善の仕組み自体を書き換えるMetaの新フレームワーク——arXiv:2603.19461
Metaの研究チームが2026年3月19日にarXivで公開したHyperAgents(arXiv:2603.19461)。タスクを解くエージェントと、そのエージェントの改善メカニズム自体を修正するメタエージェントを統合することで、自己加速的な能力向上を実現する再帰的フレームワーク。

DirMoE:エキスパート選択を完全微分可能にした新MoEルーターがILCR 2026採択
ICLR 2026に採択されたDirMoEは、Mixture-of-Experts(MoE)モデルにおけるルーティングを完全微分可能にした新手法。Bernoulli分布とDirichlet分布を組み合わせ、どのエキスパートを選ぶかと各エキスパートの重みを独立して最適化する。

S2D2:拡散LLMを高速化する「自己推測デコード」——論文が切り拓く新世代推論
arXivに掲載されたS2D2は、拡散ベースの言語モデルの推論を劇的に高速化する手法を提案。追加のトレーニングなしに自己推測デコードを実現し、実用化への道を切り拓く。

R-C2:サイクル一貫強化学習でマルチモーダル推論を改善——arXiv論文解説
arXivに掲載されたR-C2は、視覚言語モデルの推論能力を向上させるためのサイクル一貫強化学習フレームワークを提案。追加の教師データなしに、自己一貫性チェックでモデルの思考品質を改善する。

音声エージェント時代のASR再考:「基本に戻れ」が示す深い教訓——論文解説
音声エージェントが台頭する中、既存のASR(自動音声認識)システムの評価基準そのものを問い直す論文がarXivに掲載された。単なる単語認識精度以上に何が求められるかを分析する。

Vega:自然言語命令で自動運転を学習する新アーキテクチャ——arXiv論文解説
arXivに掲載されたVegaは、自然言語の指示から自動運転を学習するVision-Language-Action (VLA)モデルを提案。ドライバーの言葉の好みを理解してパーソナライズされた走行スタイルを実現する。