論文の概要: AI Autonomy or Human Dependency? Defining the Boundary in Responsible AI with the $α$-Coefficient
- arxiv url: http://arxiv.org/abs/2512.11295v1
- Date: Fri, 12 Dec 2025 05:41:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.666993
- Title: AI Autonomy or Human Dependency? Defining the Boundary in Responsible AI with the $α$-Coefficient
- Title(参考訳): AIの自律性か人間依存か? 責任あるAIの境界を$α$-Coefficientで定義する
- Authors: Nattaya Mairittha, Gabriel Phorncharoenmusikul, Sorawit Worapradidth,
- Abstract要約: 我々はAI-First, Human-Empowered(AFHE)パラダイムを提案する。
AFHEは、AIコンポーネントが最小かつ定量的な機能独立を達成しなければならない技術設計を義務付けている。
この研究は、メトリック駆動で構造的に健全なAIアーキテクチャへの重要なシフトを提唱している。
- 参考スコア(独自算出の注目度): 0.15293427903448018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integrity of contemporary AI systems is undermined by a critical design flaw: the misappropriation of Human-in-the-Loop (HITL) models to mask systems that are fundamentally reliant on human labor. We term this structural reliance Human-Instead-of-AI (HISOAI). HISOAI systems represent an ethical failure and an unsustainable economic dependency, where human workers function as hidden operational fallbacks rather than strategic collaborators. To rectify this, we propose the AI-First, Human-Empowered (AFHE) paradigm. AFHE mandates a technological design where the AI component must achieve a minimum, quantifiable level of functional independence prior to deployment. This standard is formalized through the AI Autonomy Coefficient (alpha), a metric that determines the proportion of tasks that the AI successfully processes without mandatory human substitution. We introduce the AFHE Deployment Algorithm, an algorithmic gate that requires the system to meet a specified alpha threshold across both offline and shadow testing. By enforcing this structural separation, the AFHE framework redefines the human's role to focus exclusively on high-value tasks, including ethical oversight, boundary pushing, and strategic model tuning, thereby ensuring true system transparency and operational independence. This work advocates for a critical shift toward metric-driven, structurally sound AI architecture, moving the industry beyond deceptive human dependency toward verifiable autonomy.
- Abstract(参考訳): 現代AIシステムの完全性は、設計上の重大な欠陥によって損なわれている。
我々はこの構造的依存をHuman-Instead-of-AI(HISOAI)と呼ぶ。
HISOAIシステムは倫理的な失敗と持続不可能な経済的依存を表しており、人間の労働者は戦略的協力者ではなく、隠れた運用上の欠点として機能する。
そこで我々は,AI-First, Human-Empowered(AFHE)パラダイムを提案する。
AFHEは、AIコンポーネントがデプロイ前に最小かつ定量的な機能独立を達成しなければならない技術設計を委任する。
この標準はAIオートノミー係数(alpha)によって定式化され、AIが人間の強制置換なしに処理したタスクの割合を決定する。
AFHE Deployment Algorithmは,オフラインおよびシャドウテストの両方で,特定のアルファしきい値を満たすアルゴリズムゲートである。
この構造的分離を強制することにより、AFHEフレームワークは人間の役割を再定義し、倫理的監視、バウンダリプッシュ、戦略的モデルチューニングを含む高価値なタスクにのみ焦点をあてることで、真のシステムの透明性と運用上の独立性を保証する。
この研究は、メトリック駆動で構造的に健全なAIアーキテクチャへの重要な転換を提唱し、業界が人間の依存を欺いたものから検証可能な自律性へと移行した。
関連論文リスト
- A Pragmatic View of AI Personhood [45.069027101429704]
エージェント人工知能は、新しいタイプの人格の「カンブリア爆発」を引き起こすように設定されている。
本稿では,この多角化をナビゲートするための実用的枠組みを提案する。
我々は、この伝統的なバンドルは、異なるコンテキストに対する好ましくないソリューションを作成することができると論じる。
論文 参考訳(メタデータ) (2025-10-30T11:36:34Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - FAIRTOPIA: Envisioning Multi-Agent Guardianship for Disrupting Unfair AI Pipelines [1.556153237434314]
AIモデルは積極的な意思決定者となり、しばしば人間の監督なしに行動している。
エージェントは彼らの環境から学ぶので、公正な保護者としてエージェントを想定する。
本稿では,マルチロールエージェントをエンドツーエンド(人間からAI)のシナジースキームに組み込むフェアネス・バイ・デザイン手法を提案する。
論文 参考訳(メタデータ) (2025-06-10T17:02:43Z) - A Unified Framework for Human AI Collaboration in Security Operations Centers with Trusted Autonomy [10.85035493967822]
本稿では,セキュリティ・オペレーション・センター(SOC)におけるヒューマン・AI連携のための構造化された枠組みについて述べる。
我々は,手動から完全自律までの5段階のAI自律性に基づく,新しい自律型フレームワークを提案する。
これにより、監視、保護、脅威検出、警告トリアージ、インシデント応答を含む、コアSOC関数間の適応的で説明可能なAI統合が可能になる。
論文 参考訳(メタデータ) (2025-05-29T12:35:08Z) - Modeling AI-Human Collaboration as a Multi-Agent Adaptation [0.0]
タスクの関数としてAIと人間のコラボレーションを形式化するエージェントベースのシミュレーションを開発する。
モジュラータスクでは、AIが人間の代わりになることが多いことを示します。
また、記憶や構造が欠如している「幻覚的」AIでさえ、ローカルオプティマから逃れることによって、低能力な人間を増強することで、結果を改善することも示しています。
論文 参考訳(メタデータ) (2025-04-29T16:19:53Z) - Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - OML: A Primitive for Reconciling Open Access with Owner Control in AI Model Distribution [35.68672391812135]
我々は,AIモデルの新たな分散パラダイムを実現するプリミティブであるOMLを紹介する。
OMLは、暗号的に強制された使用許可を維持しながら、ローカル実行のために自由に配布することができる。
この研究は、暗号、機械学習、そしてメカニズム設計の交差点で新しい研究の方向性を開く。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - A Formalisation of the Purpose Framework: the Autonomy-Alignment Problem in Open-Ended Learning Robots [39.94239759860999]
自律性と制御のバランスをとる自律ロボットの設計を支援するための計算フレームワークを提案する。
人間の目的は、人間がロボットに学ばせるか、やらないかを規定する。
このフレームワークは、自律的なアライメント問題を、より難解なサブプロブレムに分解する。
論文 参考訳(メタデータ) (2024-03-04T22:03:49Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。