論文の概要: Levels of Autonomy for AI Agents
- arxiv url: http://arxiv.org/abs/2506.12469v1
- Date: Sat, 14 Jun 2025 12:14:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.286161
- Title: Levels of Autonomy for AI Agents
- Title(参考訳): AIエージェントの自律性のレベル
- Authors: K. J. Kevin Feng, David W. McDonald, Amy X. Zhang,
- Abstract要約: エージェントの自律性のレベルは、その能力と運用環境とは別に、意図的な設計上の決定として扱うことができると論じる。
エージェントと対話する際の役割を特徴とし,エージェントの自律性を高める5つのレベルを定義した。
シングルエージェントおよびマルチエージェントシステムにおけるエージェントの動作を管理するために、AI自律性証明書に対する私たちのフレームワークの潜在的な応用を強調します。
- 参考スコア(独自算出の注目度): 9.324309359500198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomy is a double-edged sword for AI agents, simultaneously unlocking transformative possibilities and serious risks. How can agent developers calibrate the appropriate levels of autonomy at which their agents should operate? We argue that an agent's level of autonomy can be treated as a deliberate design decision, separate from its capability and operational environment. In this work, we define five levels of escalating agent autonomy, characterized by the roles a user can take when interacting with an agent: operator, collaborator, consultant, approver, and observer. Within each level, we describe the ways by which a user can exert control over the agent and open questions for how to design the nature of user-agent interaction. We then highlight a potential application of our framework towards AI autonomy certificates to govern agent behavior in single- and multi-agent systems. We conclude by proposing early ideas for evaluating agents' autonomy. Our work aims to contribute meaningful, practical steps towards responsibly deployed and useful AI agents in the real world.
- Abstract(参考訳): 自律性はAIエージェントのための二重刃の剣であり、同時に変革の可能性と深刻なリスクを解き放つ。
エージェント開発者はどのようにして、エージェントが動作すべき適切なレベルの自律性を調整できるのか?
エージェントの自律性のレベルは、その能力と運用環境とは別に、意図的な設計上の決定として扱うことができると論じる。
本研究では,エージェントと対話する際の役割として,オペレータ,コラボレータ,コンサルタント,承認者,オブザーバの5つのレベルを定義した。
各レベルにおいて、ユーザがエージェントを制御し、ユーザとエージェントのインタラクションの性質をどう設計するかという質問をオープンにする方法を説明する。
次に、単エージェントシステムとマルチエージェントシステムにおけるエージェントの動作を管理するために、AI自律性証明書に対する私たちのフレームワークの潜在的な応用を強調します。
エージェントの自律性を評価するための初期のアイデアを提案して締めくくります。
私たちの研究は、現実の世界で責任を持ってデプロイされ、有用なAIエージェントに、意味のある実践的なステップを貢献することを目的としています。
関連論文リスト
- Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - Measuring AI agent autonomy: Towards a scalable approach with code inspection [8.344207672507334]
我々は、特定のタスクを実行するためにAIエージェントを実行する必要をなくす、自律性に関するコードベースの評価を導入する。
このアプローチをAutoGenフレームワークで実証し、アプリケーションを選択します。
論文 参考訳(メタデータ) (2025-02-21T04:58:40Z) - YETI (YET to Intervene) Proactive Interventions by Multimodal AI Agents in Augmented Reality Tasks [16.443149180969776]
Augmented Reality (AR)ヘッドウェアは、日々の手続き的なタスクを解く際のユーザエクスペリエンスを一意に改善することができる。
このようなAR機能は、AIエージェントがユーザーのマルチモーダル機能に関連するアクションを見て耳を傾けるのに役立つ。
一方、AIエージェントのプロアクティビティは、人間が観察されたタスクのミスを検出し、修正するのに役立つ。
論文 参考訳(メタデータ) (2025-01-16T08:06:02Z) - Proposer-Agent-Evaluator(PAE): Autonomous Skill Discovery For Foundation Model Internet Agents [64.75036903373712]
Proposer-Agent-Evaluatorは、基礎モデルエージェントが野生のスキルを自律的に発見し、実践することを可能にする学習システムである。
PAEの中心となるタスクプロポーサは、エージェントがコンテキスト情報で実践するためのタスクを自律的に提案するコンテキスト対応タスクプロポーサである。
成功評価は、エージェントがRLを介してポリシーを洗練するための報酬信号として機能する。
論文 参考訳(メタデータ) (2024-12-17T18:59:50Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z) - CACA Agent: Capability Collaboration based AI Agent [18.84686313298908]
本稿ではCACAエージェント(Capability Collaboration based AI Agent)を提案する。
CACA Agentは、単一のLLMへの依存を減らすだけでなく、AI Agentを実装するための一連のコラボレーティブ機能を統合する。
本稿ではCACAエージェントの動作とアプリケーションシナリオの拡張について説明する。
論文 参考訳(メタデータ) (2024-03-22T11:42:47Z) - Consent as a Foundation for Responsible Autonomy [15.45515784064555]
本稿は、自律責任の動的な側面、すなわち、インテリジェントエージェントが実行時に責任を負わせることに焦点を当てる。
エージェントによる意思決定が、他のエージェントが認識する結果に影響を及ぼすような設定を検討する。
論文 参考訳(メタデータ) (2022-03-22T02:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。