論文の概要: With Great Capabilities Come Great Responsibilities: Introducing the Agentic Risk & Capability Framework for Governing Agentic AI Systems
- arxiv url: http://arxiv.org/abs/2512.22211v1
- Date: Mon, 22 Dec 2025 03:51:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.892146
- Title: With Great Capabilities Come Great Responsibilities: Introducing the Agentic Risk & Capability Framework for Governing Agentic AI Systems
- Title(参考訳): 巨大な能力が大きな責任をもたらす - エージェントAIシステムのガバナンスのためのエージェントリスクと能力フレームワークの導入
- Authors: Shaun Khoo, Jessica Foo, Roy Ka-Wei Lee,
- Abstract要約: Agentic Risk & Capability (ARC) Frameworkは、エージェントAIシステムから生じるリスクを特定し、評価し、軽減するための技術ガバナンスフレームワークである。
フレームワークのコアコントリビューションは以下のとおりである。
幅広いエージェントAIシステムを分析するために、新しい能力中心の視点を開発する。
エージェントAIシステム(コンポーネント、設計、能力)に固有の3つの主要なリスクソースを抽出する。
各リスクソース、特定の物質化されたリスク、およびそれに対応する技術的コントロールの間に明確なネクサスを確立する。
- 参考スコア(独自算出の注目度): 11.09031447875337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agentic AI systems present both significant opportunities and novel risks due to their capacity for autonomous action, encompassing tasks such as code execution, internet interaction, and file modification. This poses considerable challenges for effective organizational governance, particularly in comprehensively identifying, assessing, and mitigating diverse and evolving risks. To tackle this, we introduce the Agentic Risk \& Capability (ARC) Framework, a technical governance framework designed to help organizations identify, assess, and mitigate risks arising from agentic AI systems. The framework's core contributions are: (1) it develops a novel capability-centric perspective to analyze a wide range of agentic AI systems; (2) it distills three primary sources of risk intrinsic to agentic AI systems - components, design, and capabilities; (3) it establishes a clear nexus between each risk source, specific materialized risks, and corresponding technical controls; and (4) it provides a structured and practical approach to help organizations implement the framework. This framework provides a robust and adaptable methodology for organizations to navigate the complexities of agentic AI, enabling rapid and effective innovation while ensuring the safe, secure, and responsible deployment of agentic AI systems. Our framework is open-sourced \href{https://govtech-responsibleai.github.io/agentic-risk-capability-framework/}{here}.
- Abstract(参考訳): エージェントAIシステムは、コード実行、インターネットインタラクション、ファイル修正といったタスクを含む自律的なアクションの能力のために、重要な機会と新たなリスクの両方を提示する。
これは効果的な組織ガバナンス、特に多様性と進化するリスクを包括的に識別し、評価し、緩和する上で、大きな課題を引き起こします。
これに取り組むために、エージェントAIシステムから生じるリスクを特定し、評価し、軽減するための技術的ガバナンスフレームワークであるエージェントリスク・アンド・キャパビリティ(ARC)フレームワークを紹介します。
フレームワークのコアコントリビューションは,(1)幅広いエージェントAIシステムを分析するための,新たな能力中心の視点,(2)エージェントAIシステムに固有の3つの主要なリスク源 – コンポーネント,設計,能力 – を抽出すること,(3)リスクソース,特定の物質化リスク,およびそれに対応する技術的コントロールの間に明確なネクサスを確立すること,(4)フレームワークの実装を支援する構造的かつ実践的なアプローチを提供することである。
このフレームワークは、組織がエージェントAIの複雑さをナビゲートし、安全でセキュアで責任あるエージェントAIシステムのデプロイを確実にしながら、迅速かつ効果的なイノベーションを可能にする、堅牢で適応可能な方法論を提供する。
当社のフレームワークは,オープンソースとして,‘href{https://govtech-responsibleai.github.io/agentic-risk-capability-framework/}{here}’ という形で公開されている。
関連論文リスト
- AURA: An Agent Autonomy Risk Assessment Framework [0.0]
AURA(Agent aUtonomy Risk Assessment)はエージェントAIによるリスクの検出、定量化、緩和を目的とした統合されたフレームワークである。
AURAは、1つまたは複数のAIエージェントを同期的に、あるいは非同期に実行するリスクをスコアし、評価し、緩和するインタラクティブなプロセスを提供する。
AURAはエージェントAIの責任と透過性をサポートし、計算リソースのバランスを保ちながら、堅牢なリスク検出と緩和を提供する。
論文 参考訳(メタデータ) (2025-10-17T15:30:29Z) - A cybersecurity AI agent selection and decision support framework [0.0]
本稿では,AIエージェントアーキテクチャ,リアクティブ,認知,ハイブリッド,学習を協調する,新しい構造化された意思決定支援フレームワークを提案する。
エージェント理論と産業ガイドラインを統合することで、このフレームワークは、AIソリューションの選択とデプロイのための透過的で段階的な方法論を提供する。
論文 参考訳(メタデータ) (2025-10-02T07:38:21Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Web3 x AI Agents: Landscape, Integrations, and Foundational Challenges [49.69200207497795]
Web3テクノロジとAIエージェントの収束は、分散化されたエコシステムを再形成する、急速に進化するフロンティアを表している。
本稿では, ランドスケープ, 経済, ガバナンス, セキュリティ, 信頼メカニズムの5つの重要な側面について, Web3 と AI エージェントの交わりについて, 初めてかつ最も包括的な分析を行った。
論文 参考訳(メタデータ) (2025-08-04T15:44:58Z) - TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems [8.683314804719506]
本稿では,エージェントマルチエージェントシステム(AMAS)における信頼・リスク・セキュリティマネジメント(TRiSM)の構造的分析について述べる。
まず、エージェントAIの概念的基礎を調べ、従来のAIエージェントとアーキテクチャ的区別を強調します。
次に、Textit Explainability、ModelOps、Security、Privacy、Textittheirのガバナンスガバナンスといった重要な柱を中心に構築された、エージェントAIのためのAI TRiSMフレームワークを適応して拡張します。
調整失敗から調整失敗まで、エージェントAIのユニークな脅威と脆弱性を捉えるためにリスク分類法が提案されている。
論文 参考訳(メタデータ) (2025-06-04T16:26:11Z) - Multi-Agent Risks from Advanced AI [90.74347101431474]
先進的なAIのマルチエージェントシステムは、新規で未発見のリスクを生じさせる。
エージェントのインセンティブに基づく3つの重要な障害モードと7つの重要なリスク要因を同定する。
各リスクのいくつかの重要な事例と、それらを緩和するための有望な方向性を強調します。
論文 参考訳(メタデータ) (2025-02-19T23:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。