論文の概要: AI Agent Systems: Architectures, Applications, and Evaluation
- arxiv url: http://arxiv.org/abs/2601.01743v1
- Date: Mon, 05 Jan 2026 02:38:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.736723
- Title: AI Agent Systems: Architectures, Applications, and Evaluation
- Title(参考訳): AIエージェントシステム: アーキテクチャ、アプリケーション、評価
- Authors: Bin Xu,
- Abstract要約: AIエージェントは、基礎モデルと推論、計画、メモリ、ツールの使用を組み合わせる。
先行作業は、エージェントコンポーネントにまたがる統一された分類にまとめます。
レイテンシ対精度、自律性対可制御性、能力対信頼性といった重要な設計トレードオフについて論じます。
- 参考スコア(独自算出の注目度): 4.967019713320407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents -- systems that combine foundation models with reasoning, planning, memory, and tool use -- are rapidly becoming a practical interface between natural-language intent and real-world computation. This survey synthesizes the emerging landscape of AI agent architectures across: (i) deliberation and reasoning (e.g., chain-of-thought-style decomposition, self-reflection and verification, and constraint-aware decision making), (ii) planning and control (from reactive policies to hierarchical and multi-step planners), and (iii) tool calling and environment interaction (retrieval, code execution, APIs, and multimodal perception). We organize prior work into a unified taxonomy spanning agent components (policy/LLM core, memory, world models, planners, tool routers, and critics), orchestration patterns (single-agent vs.\ multi-agent; centralized vs.\ decentralized coordination), and deployment settings (offline analysis vs.\ online interactive assistance; safety-critical vs.\ open-ended tasks). We discuss key design trade-offs -- latency vs.\ accuracy, autonomy vs.\ controllability, and capability vs.\ reliability -- and highlight how evaluation is complicated by non-determinism, long-horizon credit assignment, tool and environment variability, and hidden costs such as retries and context growth. Finally, we summarize measurement and benchmarking practices (task suites, human preference and utility metrics, success under constraints, robustness and security) and identify open challenges including verification and guardrails for tool actions, scalable memory and context management, interpretability of agent decisions, and reproducible evaluation under realistic workloads.
- Abstract(参考訳): AIエージェント — 基礎モデルと推論、計画、メモリ、ツール使用を組み合わせたシステム — は、自然言語意図と実世界の計算の実践的なインターフェースとして急速に成長している。
この調査は、AIエージェントアーキテクチャの新たな展望を合成する。
一 熟考及び推論(例えば、連鎖分解、自己回帰及び検証及び制約認識決定)
(二)計画と統制(反応性政策から階層的・多段階プランナーまで)、
(iii)ツールコールと環境インタラクション(検索、コード実行、API、マルチモーダル認識)。
以前の作業は、エージェントコンポーネント(政治/LLMコア、メモリ、ワールドモデル、プランナー、ツールルータ、批評家)、オーケストレーションパターン(シングルエージェント対単エージェント)にまたがる統一された分類にまとめています。
\ multi-agent; 集中型 vs。
およびデプロイメント設定(オフライン分析 vs. . )。
オンライン・インタラクティブ・アシスト; セーフティクリティカル vs.
オープンエンドタスク)。
重要な設計トレードオフ -- レイテンシ対精度、自律性対可制御性、信頼性対可制御性 -- について議論し、非決定論、長期クレジット割り当て、ツールと環境の多様性、リトライやコンテキスト成長といった隠れたコストによる評価がいかに複雑であるかを強調します。
最後に、測定とベンチマークのプラクティス(タスクスイート、人間の好み、ユーティリティメトリクス、制約下での成功、堅牢性、セキュリティ)を要約し、ツールアクションの検証とガードレール、スケーラブルなメモリとコンテキスト管理、エージェント決定の解釈可能性、現実的なワークロード下での再現可能な評価を含むオープンな課題を特定します。
関連論文リスト
- The Why Behind the Action: Unveiling Internal Drivers via Agentic Attribution [63.61358761489141]
LLM(Large Language Model)ベースのエージェントは、カスタマーサービス、Webナビゲーション、ソフトウェアエンジニアリングといった現実世界のアプリケーションで広く使われている。
本稿では,タスク結果に関係なく,エージェントの動作を駆動する内部要因を識別する,テキスト汎用エージェント属性のための新しいフレームワークを提案する。
標準ツールの使用やメモリ誘起バイアスのような微妙な信頼性リスクなど、さまざまなエージェントシナリオでフレームワークを検証する。
論文 参考訳(メタデータ) (2026-01-21T15:22:21Z) - Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - The Path Ahead for Agentic AI: Challenges and Opportunities [4.52683540940001]
この章では、複雑な環境で自律的に動作するエージェントAIシステムの出現について考察する。
我々は、統計モデルからトランスフォーマーベースのシステムへのアーキテクチャの進歩を辿り、エージェントの振る舞いを可能にする能力を識別する。
既存の調査とは異なり、私たちは、言語理解から自律的な行動へのアーキテクチャの移行に注目し、デプロイ前に解決しなければならない技術的ギャップを強調します。
論文 参考訳(メタデータ) (2026-01-06T06:31:42Z) - Architectures for Building Agentic AI [0.0]
この章は、エージェント的および生成的AIの信頼性は、主にアーキテクチャ上の特性であると主張している。
古典的基盤を基盤として,実践的な分類ツール利用エージェント,メモリ拡張エージェント,計画・自己改善エージェント,マルチエージェントシステム,具体化・ウェブエージェントを提案する。
論文 参考訳(メタデータ) (2025-12-10T09:28:40Z) - Towards 6G Native-AI Edge Networks: A Semantic-Aware and Agentic Intelligence Paradigm [85.7583231789615]
6Gはインテリジェンスをネイティブネットワークの能力として位置づけ、無線アクセスネットワーク(RAN)の設計を変革する
このビジョンの中では、セマンティック・ネイティブのコミュニケーションとエージェント・インテリジェンスが中心的な役割を果たすことが期待されている。
エージェントインテリジェンスは、RANエンティティに目標駆動の自律性、推論、計画、マルチエージェントコラボレーションを提供する。
論文 参考訳(メタデータ) (2025-12-04T03:09:33Z) - AI Agentic Programming: A Survey of Techniques, Challenges, and Opportunities [8.086360127362815]
大規模言語モデル(LLM)ベースのコーディングエージェントは、コンパイラ、デバッガ、バージョン管理システムなどのツールを自律的に計画し、実行し、操作する。
従来のコード生成とは異なり、これらのエージェントは目標を分解し、多段階プロセスをコーディネートし、フィードバックに基づいて適応し、ソフトウェア開発のプラクティスを再構築する。
論文 参考訳(メタデータ) (2025-08-15T00:14:31Z) - A Survey of Self-Evolving Agents: On Path to Artificial Super Intelligence [87.08051686357206]
大きな言語モデル(LLM)は強力な能力を示しているが、基本的に静的である。
LLMはますますオープンでインタラクティブな環境にデプロイされているため、この静的な性質は重要なボトルネックとなっている。
この調査は、自己進化エージェントの体系的で包括的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-07-28T17:59:05Z) - Deep Research Agents: A Systematic Examination And Roadmap [109.53237992384872]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - Towards Pervasive Distributed Agentic Generative AI -- A State of The Art [0.0]
知的エージェントとLarge Language Models(LLM)の急速な進歩は、広範にわたるコンピューティング分野を変革している。
この調査では、LLMエージェントのアーキテクチャコンポーネントの概要と、さまざまなシナリオにおけるデプロイメントと評価について概説する。
リソース制約のあるデバイス上でのローカルおよび分散実行を含む、最先端のエージェントデプロイメント戦略とアプリケーションを強調している。
論文 参考訳(メタデータ) (2025-06-16T10:15:06Z) - HADA: Human-AI Agent Decision Alignment Architecture [0.0]
HADAはプロトコルとフレームワークのリファレンスアーキテクチャであり、大きな言語モデル(LLM)エージェントとレガシーアルゴリズムの両方を組織的目標と値に一致させる。
技術的および非技術的アクターは、戦略的、戦術的、リアルタイムな地平線を越えて、あらゆる決定をクエリ、ステア、監査、または競合することができる。
論文 参考訳(メタデータ) (2025-06-01T14:04:52Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。