論文の概要: The Decision Path to Control AI Risks Completely: Fundamental Control Mechanisms for AI Governance
- arxiv url: http://arxiv.org/abs/2512.04489v1
- Date: Thu, 04 Dec 2025 05:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.017211
- Title: The Decision Path to Control AI Risks Completely: Fundamental Control Mechanisms for AI Governance
- Title(参考訳): AIリスクを完全にコントロールするための決定経路:AIガバナンスのための基本的な制御メカニズム
- Authors: Yong Tao,
- Abstract要約: AIシステム内に3つのAIMを構築し、社会に3つのAIリスクに対処する必要がある。
我々は、よりスマートなAI/AGI/ASIがコア安全制御を回避するために、アナログ物理防護を強化する方法について論じる。
- 参考スコア(独自算出の注目度): 1.1252728925416642
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence (AI) advances rapidly but achieving complete human control over AI risks remains an unsolved problem, akin to driving the fast AI "train" without a "brake system." By exploring fundamental control mechanisms at key elements of AI decisions, this paper develops a systematic solution to thoroughly control AI risks, providing an architecture for AI governance and legislation with five pillars supported by six control mechanisms, illustrated through a minimum set of AI Mandates (AIMs). Three of the AIMs must be built inside AI systems and three in society to address major areas of AI risks: 1) align AI values with human users; 2) constrain AI decision-actions by societal ethics, laws, and regulations; 3) build in human intervention options for emergencies and shut-off switches for existential threats; 4) limit AI access to resources to reinforce controls inside AI; 5) mitigate spillover risks like job loss from AI. We also highlight the differences in AI governance on physical AI systems versus generative AI. We discuss how to strengthen analog physical safeguards to prevent smarter AI/AGI/ASI from circumventing core safety controls by exploiting AI's intrinsic disconnect from the analog physical world: AI's nature as pure software code run on chips controlled by humans, and the prerequisite that all AI-driven physical actions must be digitized. These findings establish a theoretical foundation for AI governance and legislation as the basic structure of a "brake system" for AI decisions. If enacted, these controls can rein in AI dangers as completely as humanly possible, removing large chunks of currently wide-open AI risks, substantially reducing overall AI risks to residual human errors.
- Abstract(参考訳): 人工知能(AI)は急速に進歩するが、「ブレーキシステム」を使わずに高速なAI「トレイン」を運転するのと同様、人間のAIリスクに対する完全なコントロールを達成することは未解決の問題である。
本稿では、AI決定の重要な要素における基本的な制御メカニズムを探求することにより、AIリスクを徹底的に制御する体系的なソリューションを開発し、6つの制御メカニズムによって支持される5つの柱を備えた、AIガバナンスと立法のためのアーキテクチャを提供する。
AIシステム内に3つのAIMを構築し、社会に3つのAIリスクに対処する必要がある。
1)AIの価値観と人間のユーザとの整合性。
2) 社会倫理,法律及び規則によるAI決定行為の制限
3 緊急時の人為的介入の選択肢を整備し、実存的脅威に対するスイッチを停止すること。
4)AI内部の制御を強化するため、リソースへのアクセスを制限すること。
5) AIからの失業などの流出リスクを軽減する。
また、物理AIシステムにおけるAIガバナンスと生成AIの違いを強調します。
我々は、AIの本質的な接続をアナログ物理世界から活用することにより、よりスマートなAI/AGI/ASIがコア安全制御を回避するために、アナログ物理ガードを強化する方法について論じる。
これらの知見は、AI決定のための「ブレーキシステム」の基本構造として、AIガバナンスと立法の理論的基盤を確立する。
実施されれば、これらのコントロールはAIの危険を完全に人間的に完全に抑えることができ、現在広く開放されているAIのリスクの大部分を排除し、AI全体のリスクを人間のエラーから大幅に低減することができる。
関連論文リスト
- Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Societal Adaptation to Advanced AI [1.2607853680700076]
先進的なAIシステムからリスクを管理する既存の戦略は、AIシステムの開発方法と拡散方法に影響を与えることに集中することが多い。
我々は、先進的なAIへの社会適応の増大という補完的なアプローチを奨励する。
我々は、AIシステムの潜在的に有害な使用を回避し、防御し、治療する適応的介入を特定するのに役立つ概念的枠組みを導入する。
論文 参考訳(メタデータ) (2024-05-16T17:52:12Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。