論文の概要: Toward Adaptive Categories: Dimensional Governance for Agentic AI
- arxiv url: http://arxiv.org/abs/2505.11579v1
- Date: Fri, 16 May 2025 14:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.72065
- Title: Toward Adaptive Categories: Dimensional Governance for Agentic AI
- Title(参考訳): 適応カテゴリに向けて:エージェントAIの次元ガバナンス
- Authors: Zeynep Engin, David Hand,
- Abstract要約: 次元ガバナンスは、意思決定の権威、プロセスの自律性、説明責任(3A)が人間とAIの関係を動的に分散する方法を追跡するフレームワークである。
このアプローチの重要な利点は、主要なガバナンスしきい値に対するシステムの動きを明示的に監視できることです。
我々は、重要な側面、重要な信頼しきい値、厳格な分類のフレームワークがどこで失敗するかを示す実践例を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI systems evolve from static tools to dynamic agents, traditional categorical governance frameworks -- based on fixed risk tiers, levels of autonomy, or human oversight models -- are increasingly insufficient on their own. Systems built on foundation models, self-supervised learning, and multi-agent architectures increasingly blur the boundaries that categories were designed to police. In this Perspective, we make the case for dimensional governance: a framework that tracks how decision authority, process autonomy, and accountability (the 3As) distribute dynamically across human-AI relationships. A critical advantage of this approach is its ability to explicitly monitor system movement toward and across key governance thresholds, enabling preemptive adjustments before risks materialize. This dimensional approach provides the necessary foundation for more adaptive categorization, enabling thresholds and classifications that can evolve with emerging capabilities. While categories remain essential for decision-making, building them upon dimensional foundations allows for context-specific adaptability and stakeholder-responsive governance that static approaches cannot achieve. We outline key dimensions, critical trust thresholds, and practical examples illustrating where rigid categorical frameworks fail -- and where a dimensional mindset could offer a more resilient and future-proof path forward for both governance and innovation at the frontier of artificial intelligence.
- Abstract(参考訳): AIシステムが静的ツールから動的エージェントへと進化するにつれて、固定リスク層、自律性レベル、あるいは人間の監視モデルに基づく従来の分類的ガバナンスフレームワークは、ますます不十分になっている。
基礎モデル、自己教師型学習、マルチエージェントアーキテクチャに基づいて構築されたシステムは、カテゴリが警察用に設計された境界を曖昧にしている。
意思決定の権威、プロセスの自律性、説明責任(3A)が人間とAIの関係で動的に分散する方法を追跡するフレームワークです。
このアプローチの重要な利点は、主要なガバナンスしきい値に対するシステムの動きを明示的に監視し、リスクが発生する前にプリエンプティブな調整を可能にすることである。
この次元的アプローチは、より適応的な分類に必要な基盤を提供し、新たな能力で進化するしきい値と分類を可能にする。
カテゴリは意思決定に不可欠だが、静的アプローチでは達成できない、コンテキスト固有の適応性とステークホルダレスのガバナンスを、次元的な基盤の上に構築することができる。
我々は、厳格なカテゴリーのフレームワークがどこで失敗するか、そして人工知能の最前線におけるガバナンスとイノベーションの両方にとって、よりレジリエントで将来的な道のりを、次元のマインドセットが与え得るかを示す重要な次元、重要な信頼しきい値、実践例を概説する。
関連論文リスト
- Human-AI Governance (HAIG): A Trust-Utility Approach [0.0]
本稿では,人間とAIの関係が進化する中で,信頼のダイナミクスを分析するためのHAIGフレームワークを紹介する。
我々の分析は、自己監督、推論権限、分散意思決定の技術的進歩が、不均一な信頼の進化をいかに引き起こすかを明らかにする。
論文 参考訳(メタデータ) (2025-05-03T01:57:08Z) - Contemplative Wisdom for Superalignment [1.7143967091323253]
我々は、その認知アーキテクチャと世界モデルに組み込まれた本質的な道徳性を備えたAIの設計を提唱する。
実証的な知恵の伝統にインスパイアされた4つの公理原理が、AIシステムにレジリエントなWise World Modelを組み込むことができることを示す。
論文 参考訳(メタデータ) (2025-04-21T14:20:49Z) - Position: Emergent Machina Sapiens Urge Rethinking Multi-Agent Paradigms [6.285314639722078]
AIエージェントは、その目的を動的に調整する権限を持つべきだ、と私たちは主張する。
私たちは、これらのシステムの創発的で、自己組織化され、文脈に合った性質へのシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-02-05T22:20:15Z) - Latent-Predictive Empowerment: Measuring Empowerment without a Simulator [56.53777237504011]
我々は、より実用的な方法でエンパワーメントを計算するアルゴリズムであるLatent-Predictive Empowerment(LPE)を提案する。
LPEは、スキルと国家間の相互情報の原則的な置き換えである目的を最大化することで、大きなスキルセットを学習する。
論文 参考訳(メタデータ) (2024-10-15T00:41:18Z) - Beyond Accidents and Misuse: Decoding the Structural Risk Dynamics of Artificial Intelligence [0.0]
本稿では,複雑なシステム研究を基盤としたフレームワークを導入することにより,構造リスクの概念を推し進める。
構造リスクを、先行する構造的原因、先行するAIシステム原因、有害なフィードバックループの3つのカテゴリに分類する。
本稿では,これらのダイナミクスを予測し,支配するために,シナリオマッピング,シミュレーション,探索的展望を取り入れた方法論的アジェンダを提案する。
論文 参考訳(メタデータ) (2024-06-21T05:44:50Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [64.59151650272477]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。