論文の概要: AI Autonomy Coefficient ($α$): Defining Boundaries for Responsible AI Systems
- arxiv url: http://arxiv.org/abs/2512.11295v3
- Date: Thu, 18 Dec 2025 16:29:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 14:03:03.221596
- Title: AI Autonomy Coefficient ($α$): Defining Boundaries for Responsible AI Systems
- Title(参考訳): AIオートノミー係数(α$):責任あるAIシステムの境界を定義する
- Authors: Nattaya Mairittha, Gabriel Phorncharoenmusikul, Sorawit Worapradidth,
- Abstract要約: 現代のAIシステムの統合性は、Human-in-the-Loopモデルの誤用によって損なわれる。
機能独立の定量的レベルを示すためにAIシステムを必要とするAI-First, Human-Empowered(AFHE)パラダイムを導入する。
AFHEは、現代のAIシステムにおいて、検証可能な自律性、透明性、持続的な保守性を保証するためのメトリック駆動型アプローチを提供する、と結論付けています。
- 参考スコア(独自算出の注目度): 0.15293427903448018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integrity of many contemporary AI systems is compromised by the misuse of Human-in-the-Loop (HITL) models to obscure systems that remain heavily dependent on human labor. We define this structural dependency as Human-Instead-of-AI (HISOAI), an ethically problematic and economically unsustainable design in which human workers function as concealed operational substitutes rather than intentional, high-value collaborators. To address this issue, we introduce the AI-First, Human-Empowered (AFHE) paradigm, which requires AI systems to demonstrate a quantifiable level of functional independence prior to deployment. This requirement is formalized through the AI Autonomy Coefficient, measuring the proportion of tasks completed without mandatory human intervention. We further propose the AFHE Deployment Algorithm, an algorithmic gate that enforces a minimum autonomy threshold during offline evaluation and shadow deployment. Our results show that the AI Autonomy Coefficient effectively identifies HISOAI systems with an autonomy level of 0.38, while systems governed by the AFHE framework achieve an autonomy level of 0.85. We conclude that AFHE provides a metric-driven approach for ensuring verifiable autonomy, transparency, and sustainable operational integrity in modern AI systems.
- Abstract(参考訳): 現代のAIシステムの完全性は、ヒューマン・イン・ザ・ループ(HITL)モデルが人間の労働に大きく依存している不明瞭なシステムに誤用されることによって損なわれている。
この構造的依存関係を、倫理的に問題があり経済的に持続不可能な設計であるHuman-Instead-of-AI(HISOAI)と定義する。
この問題に対処するために、AIシステムは、デプロイ前に機能的独立の定量レベルを示す必要があるAI-First, Human-Empowered (AFHE)パラダイムを導入します。
この要件はAIオートノミー係数によって形式化され、人間の介入を強制せずに完了したタスクの割合を測定する。
さらに,オフライン評価やシャドウ展開において,最小限の自律性閾値を強制するアルゴリズムゲートであるAFHE Deployment Algorithmを提案する。
その結果,AIオートノミー係数は自律レベル0.38のHISOAIシステムを効果的に同定し,AFHEフレームワークが支配するシステムは0.85の自律レベルを達成した。
AFHEは、現代のAIシステムにおいて、検証可能な自律性、透明性、持続的な保守性を保証するためのメトリック駆動型アプローチを提供する、と結論付けています。
関連論文リスト
- AI+HW 2035: Shaping the Next Decade [135.53570243498987]
人工知能(AI)とハードウェア(HW)は前例のない速度で進歩している。
このビジョンペーパーは、AI+HWの共同設計と共同開発のための10年間のロードマップをレイアウトし、アルゴリズム、アーキテクチャ、システム、持続可能性にまたがる。
主要な課題と機会を特定し、潜在的な障害や落とし穴を効果的に評価し、統合されたソリューションを提案する。
論文 参考訳(メタデータ) (2026-03-05T14:36:33Z) - Trustworthy Orchestration Artificial Intelligence by the Ten Criteria with Control-Plane Governance [1.9691447018712314]
本稿では,信頼に値するオーケストレーションAIの10基準について述べる。
人間の入力、セマンティックコヒーレンス、監査、証明の整合性を統合されたコントロール・パネルアーキテクチャに統合する。
論文 参考訳(メタデータ) (2025-12-11T05:49:26Z) - A Pragmatic View of AI Personhood [45.069027101429704]
エージェント人工知能は、新しいタイプの人格の「カンブリア爆発」を引き起こすように設定されている。
本稿では,この多角化をナビゲートするための実用的枠組みを提案する。
我々は、この伝統的なバンドルは、異なるコンテキストに対する好ましくないソリューションを作成することができると論じる。
論文 参考訳(メタデータ) (2025-10-30T11:36:34Z) - From Agentification to Self-Evolving Agentic AI for Wireless Networks: Concepts, Approaches, and Future Research Directions [70.72279728350763]
自律進化型エージェント人工知能(AI)は、将来の無線システムに新しいパラダイムを提供する。
静的AIモデルとは異なり、自己進化エージェントは、モデルやツールを更新し、環境ダイナミクスに対応する自律進化サイクルを組み込む。
本稿では,自己進化型エージェントAIの概要を概説し,その階層化アーキテクチャ,ライフサイクル,鍵となる技術について述べる。
論文 参考訳(メタデータ) (2025-10-07T05:45:25Z) - LIMI: Less is More for Agency [49.63355240818081]
LIMI(Less Is More for Intelligent Agency)は、機関が根本的に異なる開発原則に従うことを示す。
高度なエージェント・インテリジェンスは、最小でも戦略的にキュレートされた自律行動のデモンストレーションから生まれる可能性がある。
マシンの自律性はデータの豊富さではなく、高品質なエージェント実証の戦略的キュレーションから生まれる。
論文 参考訳(メタデータ) (2025-09-22T10:59:32Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - The Missing Reward: Active Inference in the Era of Experience [1.9761774213809036]
アクティブ推論(AIF)は、自律型AIエージェントを開発する上で重要な基盤を提供する。
AIFは、自由エネルギーを最小化するために、外部の報酬信号を本質的な駆動に置き換えることができる。
この合成は、計算と物理の両方の制約に固執しながら自律的に開発できるAIシステムへの魅力的な道を提供する。
論文 参考訳(メタデータ) (2025-08-07T17:57:12Z) - ML-Master: Towards AI-for-AI via Integration of Exploration and Reasoning [49.25518866694287]
本稿では,探索と推論をシームレスに統合する新しいAI4AIエージェントであるML-Masterを提案する。
我々はML-MasterをMLE-Benchで評価し、平均メダル率29.3%を達成し、既存の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2025-06-19T17:53:28Z) - FAIRTOPIA: Envisioning Multi-Agent Guardianship for Disrupting Unfair AI Pipelines [1.556153237434314]
AIモデルは積極的な意思決定者となり、しばしば人間の監督なしに行動している。
エージェントは彼らの環境から学ぶので、公正な保護者としてエージェントを想定する。
本稿では,マルチロールエージェントをエンドツーエンド(人間からAI)のシナジースキームに組み込むフェアネス・バイ・デザイン手法を提案する。
論文 参考訳(メタデータ) (2025-06-10T17:02:43Z) - A Unified Framework for Human AI Collaboration in Security Operations Centers with Trusted Autonomy [10.85035493967822]
本稿では,セキュリティ・オペレーション・センター(SOC)におけるヒューマン・AI連携のための構造化された枠組みについて述べる。
我々は,手動から完全自律までの5段階のAI自律性に基づく,新しい自律型フレームワークを提案する。
これにより、監視、保護、脅威検出、警告トリアージ、インシデント応答を含む、コアSOC関数間の適応的で説明可能なAI統合が可能になる。
論文 参考訳(メタデータ) (2025-05-29T12:35:08Z) - Modeling AI-Human Collaboration as a Multi-Agent Adaptation [0.0]
タスクの関数としてAIと人間のコラボレーションを形式化するエージェントベースのシミュレーションを開発する。
モジュラータスクでは、AIが人間の代わりになることが多いことを示します。
また、記憶や構造が欠如している「幻覚的」AIでさえ、ローカルオプティマから逃れることによって、低能力な人間を増強することで、結果を改善することも示しています。
論文 参考訳(メタデータ) (2025-04-29T16:19:53Z) - Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - OML: A Primitive for Reconciling Open Access with Owner Control in AI Model Distribution [35.68672391812135]
我々は,AIモデルの新たな分散パラダイムを実現するプリミティブであるOMLを紹介する。
OMLは、暗号的に強制された使用許可を維持しながら、ローカル実行のために自由に配布することができる。
この研究は、暗号、機械学習、そしてメカニズム設計の交差点で新しい研究の方向性を開く。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - To Err Is AI! Debugging as an Intervention to Facilitate Appropriate Reliance on AI Systems [11.690126756498223]
最適な人間とAIのコラボレーションのためのビジョンは、人間のAIシステムへの「適切な依存」を必要とする。
実際には、アウト・オブ・ディストリビューションデータにおける機械学習モデルの性能格差は、データセット固有のパフォーマンスフィードバックを信頼できないものにしている。
論文 参考訳(メタデータ) (2024-09-22T09:43:27Z) - A Formalisation of the Purpose Framework: the Autonomy-Alignment Problem in Open-Ended Learning Robots [39.94239759860999]
自律性と制御のバランスをとる自律ロボットの設計を支援するための計算フレームワークを提案する。
人間の目的は、人間がロボットに学ばせるか、やらないかを規定する。
このフレームワークは、自律的なアライメント問題を、より難解なサブプロブレムに分解する。
論文 参考訳(メタデータ) (2024-03-04T22:03:49Z) - A Quantitative Autonomy Quantification Framework for Fully Autonomous Robotic Systems [0.0]
本稿では,全自律モードに着目し,タスク要求に基づく定量的自律性評価フレームワークを提案する。
このフレームワークは、自律性を定量化するツールを提供するだけでなく、自律システム開発者とユーザのための規制インターフェースと共通言語も提供する。
論文 参考訳(メタデータ) (2023-11-03T14:26:53Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。