論文の概要: The Manhattan Trap: Why a Race to Artificial Superintelligence is Self-Defeating
- arxiv url: http://arxiv.org/abs/2501.14749v1
- Date: Sun, 22 Dec 2024 05:04:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 06:49:57.748501
- Title: The Manhattan Trap: Why a Race to Artificial Superintelligence is Self-Defeating
- Title(参考訳): マンハッタンのトラップ:人工超知能への競争は自給自足だ
- Authors: Corin Katzke, Gideon Futerman,
- Abstract要約: 我々は、米国がAISを開発するためのレースを動機付けるかもしれない仮定は、そのようなレースが極めて危険なことを暗示していると論じている。
分析の結果, ASI は囚人ジレンマよりも信頼ジレンマを呈しており, ASI 開発を制御するための国際協力が望ましいこと,戦略的に健全であること,などが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper examines the strategic dynamics of international competition to develop Artificial Superintelligence (ASI). We argue that the same assumptions that might motivate the US to race to develop ASI also imply that such a race is extremely dangerous. These assumptions--that ASI would provide a decisive military advantage and that states are rational actors prioritizing survival--imply that a race would heighten three critical risks: great power conflict, loss of control of ASI systems, and the undermining of liberal democracy. Our analysis shows that ASI presents a trust dilemma rather than a prisoners dilemma, suggesting that international cooperation to control ASI development is both preferable and strategically sound. We conclude that cooperation is achievable.
- Abstract(参考訳): 本稿では,ASI(Artificial Superintelligence)を開発するための国際競争の戦略的ダイナミクスについて検討する。
我々は、米国がAISを開発するためにレースを動機付けるのと同じ仮定が、そのようなレースが極めて危険であることを示唆していると論じている。
これらの仮定は、AISが決定的な軍事的優位性を提供し、国家が生存を優先する合理的なアクターであること、すなわち、人種が大戦力衝突、AISシステムの制御の喪失、自由民主主義の弱体化という3つの重大なリスクを増大させることである。
分析の結果, ASI は囚人ジレンマよりも信頼ジレンマを呈しており, ASI 開発を制御するための国際協力が望ましいこと,戦略的に健全であること,などが示唆された。
我々は協力は達成可能であると結論づける。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Supertrust foundational alignment: mutual trust must replace permanent control for safe superintelligence [0.0]
人類はいつか、私たちよりもはるかにインテリジェントなAIシステムを作るだろうと広く期待されています。
永続的な制御を確保するための現在の戦略は、超知能AIが人類を信用せず、我々を脅威と見なすであろうことを効果的に保証している。
コントロールの意図を継続するか、長期的な安全な共存に必要な基本的相互信頼を意図的に作り出すか。
論文 参考訳(メタデータ) (2024-07-29T17:39:52Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - ASI as the New God: Technocratic Theocracy [0.0]
本稿は、AIIの非並列的な能力が、神のような不確実性を人々に負わせるかもしれない、と論じる。
この分析は、AIIと全知性、全知性、全知性といった神的属性の類似性を引き出すことにより、技術的進歩を道徳的・倫理的優越性と融合させるリスクを浮き彫りにしている。
論文 参考訳(メタデータ) (2024-03-23T00:48:11Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Intelligence Security Competition (AISC) [52.20676747225118]
人工知能セキュリティコンペティション(AISC)は、Zhonguancun Laboratory、China Industrial Control Systems Cyber Emergency Response Team、Institute for Artificial Intelligence、清華大学、RealAIによって組織された。
コンテストはディープフェイクセキュリティコンペティション、自律運転セキュリティコンペティション、顔認識セキュリティコンペティションの3つのトラックで構成されている。
本報告では,これらの3トラックの競合ルールと,各トラックの上位チームのソリューションについて紹介する。
論文 参考訳(メタデータ) (2022-12-07T02:45:27Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Principles for new ASI Safety Paradigms [19.755779709558112]
ASIセーフティの目標は、AIIの致命的、脆弱で、法律を遵守させることである。
これは、AISの殺害と根絶を可能にするすべてのデバイスに機能を持たせることで達成される。
人間はAISを個々のAISインスタンスの競合する倍数として持つことができる。
論文 参考訳(メタデータ) (2021-12-02T22:26:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。