論文の概要: Architectures for Building Agentic AI
- arxiv url: http://arxiv.org/abs/2512.09458v1
- Date: Wed, 10 Dec 2025 09:28:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.464069
- Title: Architectures for Building Agentic AI
- Title(参考訳): エージェントAI構築のためのアーキテクチャ
- Authors: Sławomir Nowaczyk,
- Abstract要約: この章は、エージェント的および生成的AIの信頼性は、主にアーキテクチャ上の特性であると主張している。
古典的基盤を基盤として,実践的な分類ツール利用エージェント,メモリ拡張エージェント,計画・自己改善エージェント,マルチエージェントシステム,具体化・ウェブエージェントを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This chapter argues that the reliability of agentic and generative AI is chiefly an architectural property. We define agentic systems as goal-directed, tool-using decision makers operating in closed loops, and show how reliability emerges from principled componentisation (goal manager, planner, tool-router, executor, memory, verifiers, safety monitor, telemetry), disciplined interfaces (schema-constrained, validated, least-privilege tool calls), and explicit control and assurance loops. Building on classical foundations, we propose a practical taxonomy-tool-using agents, memory-augmented agents, planning and self-improvement agents, multi-agent systems, and embodied or web agents - and analyse how each pattern reshapes the reliability envelope and failure modes. We distil design guidance on typed schemas, idempotency, permissioning, transactional semantics, memory provenance and hygiene, runtime governance (budgets, termination conditions), and simulate-before-actuate safeguards.
- Abstract(参考訳): この章は、エージェント的および生成的AIの信頼性は、主にアーキテクチャ上の特性であると主張している。
我々はエージェントシステムを,目標指向で,クローズドループで動作するツール利用意思決定者として定義し,原則的コンポーネント化(ゴールマネージャ,プランナー,ツールルータ,実行器,メモリ,検証器,安全監視,テレメトリ),規律的インターフェース(スキーマ制約,検証済み,最小限のツールコール),明示的な制御と保証ループから信頼性が生じることを示す。
古典的基盤を基盤として,実践的な分類ツール利用エージェント,メモリ拡張エージェント,計画・自己改善エージェント,マルチエージェントシステム,具体的あるいはWebエージェントを提案する。
型付きスキーマ、イデオロジェンス、パーミッション、トランザクションセマンティクス、メモリ証明と衛生、ランタイムガバナンス(予算、終了条件)、シミュレート・バイ・アクティベート・セーフガードに関する設計ガイダンスを廃止します。
関連論文リスト
- Are Agents Just Automata? On the Formal Equivalence Between Agentic AI and the Chomsky Hierarchy [4.245979127318219]
本稿では,現代エージェントAIシステムのアーキテクチャクラスと階層の抽象機械との形式的等価性を確立する。
単純な反射エージェントは有限オートマタと等価であり、階層的なタスク分解エージェントはプッシュダウンオートマタと等価であり、リフレクションに読み取り/書き込み可能なメモリを使用するエージェントはTMと等価であることを示す。
論文 参考訳(メタデータ) (2025-10-27T16:22:02Z) - Formalizing the Safety, Security, and Functional Properties of Agentic AI Systems [10.734711935895225]
本稿では2つの基礎モデルからなるエージェントAIシステムのためのモデリングフレームワークを提案する。
1つ目はホストエージェントモデルで、ユーザと対話するトップレベルのエンティティを形式化し、タスクを分解し、外部エージェントやツールを活用して実行をオーケストレーションする。
第2のタスクライフサイクルモデルでは、個々のサブタスクの状態と、作成から完了までの遷移を詳述し、タスク管理とエラー処理の詳細なビューを提供します。
論文 参考訳(メタデータ) (2025-10-15T22:02:30Z) - Agentic AI Frameworks: Architectures, Protocols, and Design Challenges [0.0]
人工知能では、人工知能エージェントが目標指向の自律性、文脈推論、動的マルチエージェント調整を示す。
本稿では,CrewAI,LangGraph,AutoGen,Semantic Kernel,Agno,Google ADK,MetaGPTなど,主要なエージェントAIフレームワークの体系的レビューと比較分析を行う。
この分野における重要な制限、新たなトレンド、オープンな課題を特定します。
論文 参考訳(メタデータ) (2025-08-13T19:16:18Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。