論文の概要: In Which Areas of Technical AI Safety Could Geopolitical Rivals Cooperate?
- arxiv url: http://arxiv.org/abs/2504.12914v1
- Date: Thu, 17 Apr 2025 13:03:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:38:10.151122
- Title: In Which Areas of Technical AI Safety Could Geopolitical Rivals Cooperate?
- Title(参考訳): 地政学のライバルが協力できる技術AIの安全性の領域は?
- Authors: Ben Bucknall, Saad Siddiqui, Lara Thurnherr, Conor McGurk, Ben Harack, Anka Reuel, Patricia Paskov, Casey Mahoney, Sören Mindermann, Scott Singer, Vinay Hiremath, Charbel-Raphaël Segerie, Oscar Delaney, Alessandro Abate, Fazl Barez, Michael K. Cohen, Philip Torr, Ferenc Huszár, Anisoara Calinescu, Gabriel Davis Jones, Yoshua Bengio, Robert Trager,
- Abstract要約: 我々は、AI安全研究における国際協力のリスクに影響を与える技術的要因を考察する。
我々は,このような協力が危険な能力を向上し,機密情報の共有や害の機会を提供する程度に焦点をあてる。
我々は、技術的AI安全研究の協力に特有の主要なリスクを考慮して、関連するリスクを管理する既存のフレームワークを補うことができると論じる。
- 参考スコア(独自算出の注目度): 66.89036079974998
- License:
- Abstract: International cooperation is common in AI research, including between geopolitical rivals. While many experts advocate for greater international cooperation on AI safety to address shared global risks, some view cooperation on AI with suspicion, arguing that it can pose unacceptable risks to national security. However, the extent to which cooperation on AI safety poses such risks, as well as provides benefits, depends on the specific area of cooperation. In this paper, we consider technical factors that impact the risks of international cooperation on AI safety research, focusing on the degree to which such cooperation can advance dangerous capabilities, result in the sharing of sensitive information, or provide opportunities for harm. We begin by why nations historically cooperate on strategic technologies and analyse current US-China cooperation in AI as a case study. We further argue that existing frameworks for managing associated risks can be supplemented with consideration of key risks specific to cooperation on technical AI safety research. Through our analysis, we find that research into AI verification mechanisms and shared protocols may be suitable areas for such cooperation. Through this analysis we aim to help researchers and governments identify and mitigate the risks of international cooperation on AI safety research, so that the benefits of cooperation can be fully realised.
- Abstract(参考訳): 国際協力は、地球政治のライバルを含むAI研究で一般的である。
多くの専門家が、共有されたグローバルリスクに対処するために、AIの安全性に関するより大規模な国際協力を提唱する一方で、疑念を伴うAIの協力は、国家安全保障に許容できないリスクをもたらす可能性があると主張する者もいる。
しかし、AIの安全性に対する協力がそのようなリスクをもたらす程度は、特定の協力領域に依存している。
本稿では,AIの安全性研究における国際協力のリスクに影響を与える技術的要因について考察する。
我々は、なぜ国家が歴史的に戦略的技術に協力し、現在米国と中国がAIで協力しているかをケーススタディとして分析するかから始まる。
さらに、技術的AI安全研究の協力に特有の主要なリスクを考慮して、関連するリスクを管理するための既存のフレームワークを補うことができると論じる。
分析の結果、AI検証機構と共有プロトコルの研究は、このような協力にふさわしい分野である可能性が示唆された。
この分析を通じて、研究者や政府は、AI安全研究における国際協力のリスクを特定し、軽減し、協力の利点を完全に実現できるようにする。
関連論文リスト
- AI Safety for Everyone [3.440579243843689]
AIの安全性に関する最近の議論と研究は、AIの安全性と高度なAIシステムからの現実的リスクとの深いつながりを強調している。
このフレーミングは、AIの安全性にコミットしているが、異なる角度から分野にアプローチする研究者や実践者を排除する可能性がある。
私たちは、現在のAIシステムに対する即時的で実践的な懸念に対処する、数多くの具体的な安全作業を見つけました。
論文 参考訳(メタデータ) (2025-02-13T13:04:59Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - US-China perspectives on extreme AI risks and global governance [0.0]
私たちは、先進的な人工知能による安全とセキュリティの脅威を各国の専門家がどのように表現するかをよりよく理解しようとしました。
我々は、AI(Artificial General Intelligence, AGI)のような高度な人工知能の形式に着目した分析を行った。
両国の専門家は、AGIからのリスク、諜報機関の爆発によるリスク、そして人間のコントロールから逃れるAIシステムからのリスクについて懸念を表明した。
論文 参考訳(メタデータ) (2024-06-23T17:31:27Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Multi-Agent, Human-Agent and Beyond: A Survey on Cooperation in Social Dilemmas [15.785674974107204]
社会ジレンマにおける協力の研究は、長年、様々な分野の基本的なトピックであった。
人工知能の最近の進歩は、この分野を大きく変えた。
この調査は、AIの交差点における3つの重要な領域と、社会的ジレンマにおける協力について調査する。
論文 参考訳(メタデータ) (2024-02-27T07:31:30Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Accumulating Risk Capital Through Investing in Cooperation [12.053132866404972]
安全と協力のトレードオフは厳しいものではなく、少ないリスクから協力することで指数関数的に大きな利益を得ることができることを示す。
協力投資によるリスク資本の蓄積(ARCTIC)を目標とした教育方針の策定方法を提案する。
論文 参考訳(メタデータ) (2021-01-25T18:41:45Z) - Open Problems in Cooperative AI [21.303564222227727]
研究の目的は、協力の問題の多くの側面を研究し、これらの問題を解決するためにAIを革新することである。
本研究は,マルチエージェントシステム,ゲーム理論と社会的選択,ヒューマンマシンインタラクションとアライメント,自然言語処理,ソーシャルツールとプラットフォームの構築など,現在進行中の作業を統合する。
論文 参考訳(メタデータ) (2020-12-15T21:39:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。