論文の概要: Mutually Assured Deregulation
- arxiv url: http://arxiv.org/abs/2508.12300v1
- Date: Sun, 17 Aug 2025 09:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.673351
- Title: Mutually Assured Deregulation
- Title(参考訳): Mutually Assured Deregulation
- Authors: Gilad Abiri,
- Abstract要約: 世界中の政策立案者は規制条項を受け入れている。
安全な監視を解体することは、AIによる支配を通じてセキュリティを提供する、という信念だ。
ガードレールのないレースは、競争力ではなく、危険を共有します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We have convinced ourselves that the way to make AI safe is to make it unsafe. Since 2022, policymakers worldwide have embraced the Regulation Sacrifice - the belief that dismantling safety oversight will deliver security through AI dominance. Fearing China or USA will gain advantage, nations rush to eliminate safeguards that might slow progress. This Essay reveals the fatal flaw: though AI poses national security challenges, the solution demands stronger regulatory frameworks, not weaker ones. A race without guardrails breeds shared danger, not competitive strength. The Regulation Sacrifice makes three false promises. First, it promises durable technological leads. But AI capabilities spread rapidly - performance gaps between U.S. and Chinese systems collapsed from 9 percent to 2 percent in thirteen months. When advantages evaporate in months, sacrificing permanent safety for temporary speed makes no sense. Second, it promises deregulation accelerates innovation. The opposite often proves true. Companies report well-designed governance streamlines development. Investment flows toward regulated markets. Clear rules reduce uncertainty; uncertain liability creates paralysis. Environmental standards did not kill the auto industry; they created Tesla and BYD. Third, enhanced national security through deregulation actually undermines security across all timeframes. Near term: it hands adversaries information warfare tools. Medium term: it democratizes bioweapon capabilities. Long term: it guarantees deployment of uncontrollable AGI systems. The Regulation Sacrifice persists because it serves powerful interests, not security. Tech companies prefer freedom to accountability. Politicians prefer simple stories to complex truths. This creates mutually assured deregulation, where each nation's sprint for advantage guarantees collective vulnerability. The only way to win is not to play.
- Abstract(参考訳): 私たちは、AIを安全にする方法は安全性を損なうことだと自信を持ってきました。
2022年以降、世界中の政策立案者たちは、AI支配による安全の解体が安全をもたらすという、規制の犠牲を受け入れてきた。
中国や米国が優位に立つのを恐れる国は、進展が鈍化する恐れのある安全対策の排除を急いでいる。
このエッセイは、致命的な欠陥を明らかにしている:AIは国家安全保障上の課題を提起するが、ソリューションはより弱いものではなく、より強力な規制フレームワークを要求する。
ガードレールのないレースは、競争力ではなく、危険を共有します。
レギュレーション・サクラフィックは3つの偽の約束をする。
第一に、永続的な技術リードを約束する。
しかし、AIの能力は急速に拡大し、米国と中国のシステムのパフォーマンス格差は13ヶ月で9%から2%に落ち込んだ。
数ヶ月で利点が蒸発すると、一時的なスピードで恒久的な安全を犠牲にするというのは意味をなさない。
第二に、規制緩和はイノベーションを加速させる。
逆はしばしば真であると証明される。
企業は、よく設計されたガバナンスが開発を合理化していると報告している。
投資は規制市場に向かっている。
明確な規則は不確実性を減少させ、不確実性は麻痺を引き起こす。
環境基準は自動車産業を損なうものではなく、TeslaとBYDを作った。
第3に、規制緩和による国家安全保障の強化は、実際にはすべての時間枠のセキュリティを損なう。
近距離(Near term): 敵の情報戦ツールを手渡す。
中略)生物兵器能力の民主化。
長期:制御不能なAGIシステムのデプロイを保証する。
レギュレーション・サクラフィス(Regulation Sacrifice)は、セキュリティではなく、強力な利益を提供するため存続する。
テクノロジー企業は説明責任よりも自由を好む。
政治家は複雑な真実よりも単純な物語を好む。
これは相互に保証された規制緩和を生み出し、各国の利益のためのスプリントは集団的脆弱性を保証する。
勝つ唯一の方法はプレーしないことです。
関連論文リスト
- What Is AI Safety? What Do We Want It to Be? [0.0]
研究プロジェクトは、AIシステムによって引き起こされる害を防ぎ、軽減しようとする場合にのみ、AIの安全性の見地に入る。
その単純さと魅力にもかかわらず、私たちは、AI安全研究者と組織がAI安全について考え話し合う方法に関して、少なくとも2つのトレンドと緊張関係にあると主張している。
論文 参考訳(メタデータ) (2025-05-05T01:55:00Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - AI Safety: A Climb To Armageddon? [0.0]
本稿では,最適化,緩和,ホロリズムの3つの対応戦略について検討する。
この議論の驚くべき堅牢性は、AIの安全性に関するコア前提の再検討を迫られる。
論文 参考訳(メタデータ) (2024-05-30T08:41:54Z) - AI Safety: Necessary, but insufficient and possibly problematic [1.6797508081737678]
この記事では、AI安全性に関する最近の誇大広告について批判的に考察する。
AIの安全性」とは実際に何を意味するのかを考察し、AIの安全性のデジタルフットプリントが持つ支配的な概念を概説する。
私たちは、AIの安全性が、悪用され有害なAIに安全を害することで、構造的危害を助長するAIを正規化する方法に関する懸念を共有します。
論文 参考訳(メタデータ) (2024-03-26T06:18:42Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Mediating Artificial Intelligence Developments through Negative and
Positive Incentives [5.0066859598912945]
ポジティブな(リワード)インセンティブとネガティブな(罰)インセンティブが結果にどう影響するかを検討する。
いくつかのシナリオにおいて、安全対策に従う者に報酬を与えると、開発速度が向上し、安全な選択が保証されることが示されている。
論文 参考訳(メタデータ) (2020-10-01T13:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。