論文の概要: AI Agent Systems: Architectures, Applications, and Evaluation
- arxiv url: http://arxiv.org/abs/2601.01743v1
- Date: Mon, 05 Jan 2026 02:38:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.736723
- Title: AI Agent Systems: Architectures, Applications, and Evaluation
- Title(参考訳): AIエージェントシステム: アーキテクチャ、アプリケーション、評価
- Authors: Bin Xu,
- Abstract要約: AIエージェントは、基礎モデルと推論、計画、メモリ、ツールの使用を組み合わせる。
先行作業は、エージェントコンポーネントにまたがる統一された分類にまとめます。
レイテンシ対精度、自律性対可制御性、能力対信頼性といった重要な設計トレードオフについて論じます。
- 参考スコア(独自算出の注目度): 4.967019713320407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents -- systems that combine foundation models with reasoning, planning, memory, and tool use -- are rapidly becoming a practical interface between natural-language intent and real-world computation. This survey synthesizes the emerging landscape of AI agent architectures across: (i) deliberation and reasoning (e.g., chain-of-thought-style decomposition, self-reflection and verification, and constraint-aware decision making), (ii) planning and control (from reactive policies to hierarchical and multi-step planners), and (iii) tool calling and environment interaction (retrieval, code execution, APIs, and multimodal perception). We organize prior work into a unified taxonomy spanning agent components (policy/LLM core, memory, world models, planners, tool routers, and critics), orchestration patterns (single-agent vs.\ multi-agent; centralized vs.\ decentralized coordination), and deployment settings (offline analysis vs.\ online interactive assistance; safety-critical vs.\ open-ended tasks). We discuss key design trade-offs -- latency vs.\ accuracy, autonomy vs.\ controllability, and capability vs.\ reliability -- and highlight how evaluation is complicated by non-determinism, long-horizon credit assignment, tool and environment variability, and hidden costs such as retries and context growth. Finally, we summarize measurement and benchmarking practices (task suites, human preference and utility metrics, success under constraints, robustness and security) and identify open challenges including verification and guardrails for tool actions, scalable memory and context management, interpretability of agent decisions, and reproducible evaluation under realistic workloads.
- Abstract(参考訳): AIエージェント — 基礎モデルと推論、計画、メモリ、ツール使用を組み合わせたシステム — は、自然言語意図と実世界の計算の実践的なインターフェースとして急速に成長している。
この調査は、AIエージェントアーキテクチャの新たな展望を合成する。
一 熟考及び推論(例えば、連鎖分解、自己回帰及び検証及び制約認識決定)
(二)計画と統制(反応性政策から階層的・多段階プランナーまで)、
(iii)ツールコールと環境インタラクション(検索、コード実行、API、マルチモーダル認識)。
以前の作業は、エージェントコンポーネント(政治/LLMコア、メモリ、ワールドモデル、プランナー、ツールルータ、批評家)、オーケストレーションパターン(シングルエージェント対単エージェント)にまたがる統一された分類にまとめています。
\ multi-agent; 集中型 vs。
およびデプロイメント設定(オフライン分析 vs. . )。
オンライン・インタラクティブ・アシスト; セーフティクリティカル vs.
オープンエンドタスク)。
重要な設計トレードオフ -- レイテンシ対精度、自律性対可制御性、信頼性対可制御性 -- について議論し、非決定論、長期クレジット割り当て、ツールと環境の多様性、リトライやコンテキスト成長といった隠れたコストによる評価がいかに複雑であるかを強調します。
最後に、測定とベンチマークのプラクティス(タスクスイート、人間の好み、ユーティリティメトリクス、制約下での成功、堅牢性、セキュリティ)を要約し、ツールアクションの検証とガードレール、スケーラブルなメモリとコンテキスト管理、エージェント決定の解釈可能性、現実的なワークロード下での再現可能な評価を含むオープンな課題を特定します。
関連論文リスト
- Architectures for Building Agentic AI [0.0]
この章は、エージェント的および生成的AIの信頼性は、主にアーキテクチャ上の特性であると主張している。
古典的基盤を基盤として,実践的な分類ツール利用エージェント,メモリ拡張エージェント,計画・自己改善エージェント,マルチエージェントシステム,具体化・ウェブエージェントを提案する。
論文 参考訳(メタデータ) (2025-12-10T09:28:40Z) - Towards 6G Native-AI Edge Networks: A Semantic-Aware and Agentic Intelligence Paradigm [85.7583231789615]
6Gはインテリジェンスをネイティブネットワークの能力として位置づけ、無線アクセスネットワーク(RAN)の設計を変革する
このビジョンの中では、セマンティック・ネイティブのコミュニケーションとエージェント・インテリジェンスが中心的な役割を果たすことが期待されている。
エージェントインテリジェンスは、RANエンティティに目標駆動の自律性、推論、計画、マルチエージェントコラボレーションを提供する。
論文 参考訳(メタデータ) (2025-12-04T03:09:33Z) - AI Agentic Programming: A Survey of Techniques, Challenges, and Opportunities [8.086360127362815]
大規模言語モデル(LLM)ベースのコーディングエージェントは、コンパイラ、デバッガ、バージョン管理システムなどのツールを自律的に計画し、実行し、操作する。
従来のコード生成とは異なり、これらのエージェントは目標を分解し、多段階プロセスをコーディネートし、フィードバックに基づいて適応し、ソフトウェア開発のプラクティスを再構築する。
論文 参考訳(メタデータ) (2025-08-15T00:14:31Z) - A Survey of Self-Evolving Agents: On Path to Artificial Super Intelligence [87.08051686357206]
大きな言語モデル(LLM)は強力な能力を示しているが、基本的に静的である。
LLMはますますオープンでインタラクティブな環境にデプロイされているため、この静的な性質は重要なボトルネックとなっている。
この調査は、自己進化エージェントの体系的で包括的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-07-28T17:59:05Z) - Deep Research Agents: A Systematic Examination And Roadmap [109.53237992384872]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - Towards Pervasive Distributed Agentic Generative AI -- A State of The Art [0.0]
知的エージェントとLarge Language Models(LLM)の急速な進歩は、広範にわたるコンピューティング分野を変革している。
この調査では、LLMエージェントのアーキテクチャコンポーネントの概要と、さまざまなシナリオにおけるデプロイメントと評価について概説する。
リソース制約のあるデバイス上でのローカルおよび分散実行を含む、最先端のエージェントデプロイメント戦略とアプリケーションを強調している。
論文 参考訳(メタデータ) (2025-06-16T10:15:06Z) - HADA: Human-AI Agent Decision Alignment Architecture [0.0]
HADAはプロトコルとフレームワークのリファレンスアーキテクチャであり、大きな言語モデル(LLM)エージェントとレガシーアルゴリズムの両方を組織的目標と値に一致させる。
技術的および非技術的アクターは、戦略的、戦術的、リアルタイムな地平線を越えて、あらゆる決定をクエリ、ステア、監査、または競合することができる。
論文 参考訳(メタデータ) (2025-06-01T14:04:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。