論文の概要: AI Autonomy Coefficient ($α$): Defining Boundaries for Responsible AI Systems
- arxiv url: http://arxiv.org/abs/2512.11295v3
- Date: Thu, 18 Dec 2025 16:29:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 14:03:03.221596
- Title: AI Autonomy Coefficient ($α$): Defining Boundaries for Responsible AI Systems
- Title(参考訳): AIオートノミー係数(α$):責任あるAIシステムの境界を定義する
- Authors: Nattaya Mairittha, Gabriel Phorncharoenmusikul, Sorawit Worapradidth,
- Abstract要約: 現代のAIシステムの統合性は、Human-in-the-Loopモデルの誤用によって損なわれる。
機能独立の定量的レベルを示すためにAIシステムを必要とするAI-First, Human-Empowered(AFHE)パラダイムを導入する。
AFHEは、現代のAIシステムにおいて、検証可能な自律性、透明性、持続的な保守性を保証するためのメトリック駆動型アプローチを提供する、と結論付けています。
- 参考スコア(独自算出の注目度): 0.15293427903448018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integrity of many contemporary AI systems is compromised by the misuse of Human-in-the-Loop (HITL) models to obscure systems that remain heavily dependent on human labor. We define this structural dependency as Human-Instead-of-AI (HISOAI), an ethically problematic and economically unsustainable design in which human workers function as concealed operational substitutes rather than intentional, high-value collaborators. To address this issue, we introduce the AI-First, Human-Empowered (AFHE) paradigm, which requires AI systems to demonstrate a quantifiable level of functional independence prior to deployment. This requirement is formalized through the AI Autonomy Coefficient, measuring the proportion of tasks completed without mandatory human intervention. We further propose the AFHE Deployment Algorithm, an algorithmic gate that enforces a minimum autonomy threshold during offline evaluation and shadow deployment. Our results show that the AI Autonomy Coefficient effectively identifies HISOAI systems with an autonomy level of 0.38, while systems governed by the AFHE framework achieve an autonomy level of 0.85. We conclude that AFHE provides a metric-driven approach for ensuring verifiable autonomy, transparency, and sustainable operational integrity in modern AI systems.
- Abstract(参考訳): 現代のAIシステムの完全性は、ヒューマン・イン・ザ・ループ(HITL)モデルが人間の労働に大きく依存している不明瞭なシステムに誤用されることによって損なわれている。
この構造的依存関係を、倫理的に問題があり経済的に持続不可能な設計であるHuman-Instead-of-AI(HISOAI)と定義する。
この問題に対処するために、AIシステムは、デプロイ前に機能的独立の定量レベルを示す必要があるAI-First, Human-Empowered (AFHE)パラダイムを導入します。
この要件はAIオートノミー係数によって形式化され、人間の介入を強制せずに完了したタスクの割合を測定する。
さらに,オフライン評価やシャドウ展開において,最小限の自律性閾値を強制するアルゴリズムゲートであるAFHE Deployment Algorithmを提案する。
その結果,AIオートノミー係数は自律レベル0.38のHISOAIシステムを効果的に同定し,AFHEフレームワークが支配するシステムは0.85の自律レベルを達成した。
AFHEは、現代のAIシステムにおいて、検証可能な自律性、透明性、持続的な保守性を保証するためのメトリック駆動型アプローチを提供する、と結論付けています。
関連論文リスト
- A Pragmatic View of AI Personhood [45.069027101429704]
エージェント人工知能は、新しいタイプの人格の「カンブリア爆発」を引き起こすように設定されている。
本稿では,この多角化をナビゲートするための実用的枠組みを提案する。
我々は、この伝統的なバンドルは、異なるコンテキストに対する好ましくないソリューションを作成することができると論じる。
論文 参考訳(メタデータ) (2025-10-30T11:36:34Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - FAIRTOPIA: Envisioning Multi-Agent Guardianship for Disrupting Unfair AI Pipelines [1.556153237434314]
AIモデルは積極的な意思決定者となり、しばしば人間の監督なしに行動している。
エージェントは彼らの環境から学ぶので、公正な保護者としてエージェントを想定する。
本稿では,マルチロールエージェントをエンドツーエンド(人間からAI)のシナジースキームに組み込むフェアネス・バイ・デザイン手法を提案する。
論文 参考訳(メタデータ) (2025-06-10T17:02:43Z) - A Unified Framework for Human AI Collaboration in Security Operations Centers with Trusted Autonomy [10.85035493967822]
本稿では,セキュリティ・オペレーション・センター(SOC)におけるヒューマン・AI連携のための構造化された枠組みについて述べる。
我々は,手動から完全自律までの5段階のAI自律性に基づく,新しい自律型フレームワークを提案する。
これにより、監視、保護、脅威検出、警告トリアージ、インシデント応答を含む、コアSOC関数間の適応的で説明可能なAI統合が可能になる。
論文 参考訳(メタデータ) (2025-05-29T12:35:08Z) - Modeling AI-Human Collaboration as a Multi-Agent Adaptation [0.0]
タスクの関数としてAIと人間のコラボレーションを形式化するエージェントベースのシミュレーションを開発する。
モジュラータスクでは、AIが人間の代わりになることが多いことを示します。
また、記憶や構造が欠如している「幻覚的」AIでさえ、ローカルオプティマから逃れることによって、低能力な人間を増強することで、結果を改善することも示しています。
論文 参考訳(メタデータ) (2025-04-29T16:19:53Z) - Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - OML: A Primitive for Reconciling Open Access with Owner Control in AI Model Distribution [35.68672391812135]
我々は,AIモデルの新たな分散パラダイムを実現するプリミティブであるOMLを紹介する。
OMLは、暗号的に強制された使用許可を維持しながら、ローカル実行のために自由に配布することができる。
この研究は、暗号、機械学習、そしてメカニズム設計の交差点で新しい研究の方向性を開く。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - A Formalisation of the Purpose Framework: the Autonomy-Alignment Problem in Open-Ended Learning Robots [39.94239759860999]
自律性と制御のバランスをとる自律ロボットの設計を支援するための計算フレームワークを提案する。
人間の目的は、人間がロボットに学ばせるか、やらないかを規定する。
このフレームワークは、自律的なアライメント問題を、より難解なサブプロブレムに分解する。
論文 参考訳(メタデータ) (2024-03-04T22:03:49Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。