論文の概要: Architectures for Building Agentic AI
- arxiv url: http://arxiv.org/abs/2512.09458v1
- Date: Wed, 10 Dec 2025 09:28:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.464069
- Title: Architectures for Building Agentic AI
- Title(参考訳): エージェントAI構築のためのアーキテクチャ
- Authors: Sławomir Nowaczyk,
- Abstract要約: この章は、エージェント的および生成的AIの信頼性は、主にアーキテクチャ上の特性であると主張している。
古典的基盤を基盤として,実践的な分類ツール利用エージェント,メモリ拡張エージェント,計画・自己改善エージェント,マルチエージェントシステム,具体化・ウェブエージェントを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This chapter argues that the reliability of agentic and generative AI is chiefly an architectural property. We define agentic systems as goal-directed, tool-using decision makers operating in closed loops, and show how reliability emerges from principled componentisation (goal manager, planner, tool-router, executor, memory, verifiers, safety monitor, telemetry), disciplined interfaces (schema-constrained, validated, least-privilege tool calls), and explicit control and assurance loops. Building on classical foundations, we propose a practical taxonomy-tool-using agents, memory-augmented agents, planning and self-improvement agents, multi-agent systems, and embodied or web agents - and analyse how each pattern reshapes the reliability envelope and failure modes. We distil design guidance on typed schemas, idempotency, permissioning, transactional semantics, memory provenance and hygiene, runtime governance (budgets, termination conditions), and simulate-before-actuate safeguards.
- Abstract(参考訳): この章は、エージェント的および生成的AIの信頼性は、主にアーキテクチャ上の特性であると主張している。
我々はエージェントシステムを,目標指向で,クローズドループで動作するツール利用意思決定者として定義し,原則的コンポーネント化(ゴールマネージャ,プランナー,ツールルータ,実行器,メモリ,検証器,安全監視,テレメトリ),規律的インターフェース(スキーマ制約,検証済み,最小限のツールコール),明示的な制御と保証ループから信頼性が生じることを示す。
古典的基盤を基盤として,実践的な分類ツール利用エージェント,メモリ拡張エージェント,計画・自己改善エージェント,マルチエージェントシステム,具体的あるいはWebエージェントを提案する。
型付きスキーマ、イデオロジェンス、パーミッション、トランザクションセマンティクス、メモリ証明と衛生、ランタイムガバナンス(予算、終了条件)、シミュレート・バイ・アクティベート・セーフガードに関する設計ガイダンスを廃止します。
関連論文リスト
- From Prompt-Response to Goal-Directed Systems: The Evolution of Agentic AI Software Architecture [0.0]
Agentic AIは、ステートレスでプロンプト駆動型生成モデルからゴール指向システムへのアーキテクチャ移行を表す。
本稿では、知的エージェント理論と現代のLCM中心のアプローチを結びつけることによって、この遷移を考察する。
この研究は、標準化されたエージェントループ、登録、監査可能な制御機構への収束を特定する。
論文 参考訳(メタデータ) (2026-02-11T03:34:48Z) - Towards a Declarative Agentic Layer for Intelligent Agents in MCP-Based Server Ecosystems [0.0]
本稿では, 接地型エージェントシステムのためのモデル非依存アーキテクチャ層を提案する。
提案するレイヤであるDALIAは、実行可能な機能を形式化し、タスクを公開し、決定論的タスクグラフを構築する。
発見と計画と実行を明確に分離することで、アーキテクチャはエージェントの振る舞いを検証可能な運用空間に制約する。
論文 参考訳(メタデータ) (2026-01-24T12:15:49Z) - The Why Behind the Action: Unveiling Internal Drivers via Agentic Attribution [63.61358761489141]
LLM(Large Language Model)ベースのエージェントは、カスタマーサービス、Webナビゲーション、ソフトウェアエンジニアリングといった現実世界のアプリケーションで広く使われている。
本稿では,タスク結果に関係なく,エージェントの動作を駆動する内部要因を識別する,テキスト汎用エージェント属性のための新しいフレームワークを提案する。
標準ツールの使用やメモリ誘起バイアスのような微妙な信頼性リスクなど、さまざまなエージェントシナリオでフレームワークを検証する。
論文 参考訳(メタデータ) (2026-01-21T15:22:21Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - AI Agent Systems: Architectures, Applications, and Evaluation [4.967019713320407]
AIエージェントは、基礎モデルと推論、計画、メモリ、ツールの使用を組み合わせる。
先行作業は、エージェントコンポーネントにまたがる統一された分類にまとめます。
レイテンシ対精度、自律性対可制御性、能力対信頼性といった重要な設計トレードオフについて論じます。
論文 参考訳(メタデータ) (2026-01-05T02:38:40Z) - Adaptation of Agentic AI [162.63072848575695]
我々は、急速に拡大する研究環境を、エージェント適応とツール適応の両方にまたがる体系的な枠組みに統一する。
エージェントAIにおける適応戦略の設計空間を明らかにする上で,本フレームワークが有効であることを示す。
次に、各カテゴリの代表的アプローチをレビューし、その強みと限界を分析し、主要なオープン課題と今後の機会を強調します。
論文 参考訳(メタデータ) (2025-12-18T08:38:51Z) - Are Agents Just Automata? On the Formal Equivalence Between Agentic AI and the Chomsky Hierarchy [4.245979127318219]
本稿では,現代エージェントAIシステムのアーキテクチャクラスと階層の抽象機械との形式的等価性を確立する。
単純な反射エージェントは有限オートマタと等価であり、階層的なタスク分解エージェントはプッシュダウンオートマタと等価であり、リフレクションに読み取り/書き込み可能なメモリを使用するエージェントはTMと等価であることを示す。
論文 参考訳(メタデータ) (2025-10-27T16:22:02Z) - Formalizing the Safety, Security, and Functional Properties of Agentic AI Systems [10.734711935895225]
本稿では2つの基礎モデルからなるエージェントAIシステムのためのモデリングフレームワークを提案する。
1つ目はホストエージェントモデルで、ユーザと対話するトップレベルのエンティティを形式化し、タスクを分解し、外部エージェントやツールを活用して実行をオーケストレーションする。
第2のタスクライフサイクルモデルでは、個々のサブタスクの状態と、作成から完了までの遷移を詳述し、タスク管理とエラー処理の詳細なビューを提供します。
論文 参考訳(メタデータ) (2025-10-15T22:02:30Z) - Agentic AI Frameworks: Architectures, Protocols, and Design Challenges [0.0]
人工知能では、人工知能エージェントが目標指向の自律性、文脈推論、動的マルチエージェント調整を示す。
本稿では,CrewAI,LangGraph,AutoGen,Semantic Kernel,Agno,Google ADK,MetaGPTなど,主要なエージェントAIフレームワークの体系的レビューと比較分析を行う。
この分野における重要な制限、新たなトレンド、オープンな課題を特定します。
論文 参考訳(メタデータ) (2025-08-13T19:16:18Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。