論文の概要: Against racing to AGI: Cooperation, deterrence, and catastrophic risks
- arxiv url: http://arxiv.org/abs/2507.21839v1
- Date: Tue, 29 Jul 2025 14:17:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.458256
- Title: Against racing to AGI: Cooperation, deterrence, and catastrophic risks
- Title(参考訳): AGIへの対抗策:協力、抑止、破滅的なリスク
- Authors: Leonard Dung, Max Hellrigel-Holderbaum,
- Abstract要約: AGI Racingは、AI開発における主要なアクター、特に強力な国々の自己利益であり、彼らのフロンティアAI開発を加速している、という見解である。
私たちはAGIレーシングに反対します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AGI Racing is the view that it is in the self-interest of major actors in AI development, especially powerful nations, to accelerate their frontier AI development to build highly capable AI, especially artificial general intelligence (AGI), before competitors have a chance. We argue against AGI Racing. First, the downsides of racing to AGI are much higher than portrayed by this view. Racing to AGI would substantially increase catastrophic risks from AI, including nuclear instability, and undermine the prospects of technical AI safety research to be effective. Second, the expected benefits of racing may be lower than proponents of AGI Racing hold. In particular, it is questionable whether winning the race enables complete domination over losers. Third, international cooperation and coordination, and perhaps carefully crafted deterrence measures, constitute viable alternatives to racing to AGI which have much smaller risks and promise to deliver most of the benefits that racing to AGI is supposed to provide. Hence, racing to AGI is not in anyone's self-interest as other actions, particularly incentivizing and seeking international cooperation around AI issues, are preferable.
- Abstract(参考訳): AGI Racingは、競争相手がチャンスを得る前に、AI開発、特に強力な国において、高度な能力を持つAI、特に人工知能(AGI)を構築するためのフロンティアAI開発を加速することが、AI開発における主要なアクターの自己利益である、という見解である。
私たちはAGIレーシングに反対します。
第一に、AGIへのレースの欠点は、この視点で表現されるよりもはるかに大きい。
AGIへの競争は、核不安定性を含むAIによる破滅的なリスクを大幅に増加させ、技術的AI安全研究が効果的になる可能性を弱めるだろう。
第二に、予想されるレースの利益はAGIレーシングホールディングスの支持者よりも低いかもしれない。
特に、レースに勝つことが敗者に対する完全な支配を可能にするかどうかは疑わしい。
第3に、国際的な協力と調整、そしておそらく慎重に作られた抑止策は、AGIへのレースの代替手段となる。
したがってAGIへのレースは、他の行動、特にAI問題に関する国際協力のインセンティブと追求など、誰の自己利益にも当てはまらない。
関連論文リスト
- The Singapore Consensus on Global AI Safety Research Priorities [128.58674892183657]
2025年シンガポールAI会議(SCAI: International Scientific Exchange on AI Safety)は、この分野での研究を支援することを目的としている。
ヨシュア・ベンジオが議長を務める国際AI安全レポート(AI Safety Report)は、33の政府によって支援されている。
レポートは、AI安全研究ドメインを3つのタイプに分類する。信頼に値するAIシステム(開発)作成の課題、リスク評価の課題(評価)、デプロイメント後の監視と介入の課題(会議)。
論文 参考訳(メタデータ) (2025-06-25T17:59:50Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Fair Play in the Fast Lane: Integrating Sportsmanship into Autonomous Racing Systems [44.52724799426566]
本稿では,スポーツマンシップ(SPS)をレースに組み込むための2段階のゲーム理論フレームワークを提案する。
高レベルでは、モンテカルロ木探索(MCTS)を用いて最適な戦略を導出するスタックルバーグゲームを用いて、レース意図をモデル化する。
低レベルにおいては、車両の相互作用は一般化ナッシュ平衡問題(GNEP)として定式化され、全てのエージェントが軌道を最適化しながらスポーツマンシップの制約に従うことが保証される。
論文 参考訳(メタデータ) (2025-03-04T10:14:19Z) - Who's Driving? Game Theoretic Path Risk of AGI Development [0.0]
人工知能(Artificial General Intelligence, AGI)の開発を誰がコントロールするかは、私たちがコントロールそのもののために戦う方法よりも重要かもしれない。
我々は、この「ハンドル問題」を、人類の最も大きな短期的存在リスクは、AGIのミスアライメントではなく、それを開発するための競争のダイナミクスから生じるものであるとして定式化する。
本稿では,AGI開発ダイナミクスをモデル化したゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T17:13:12Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。