論文の概要: Promising Topics for U.S.-China Dialogues on AI Risks and Governance
- arxiv url: http://arxiv.org/abs/2505.07468v1
- Date: Mon, 12 May 2025 11:56:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.364304
- Title: Promising Topics for U.S.-China Dialogues on AI Risks and Governance
- Title(参考訳): AIリスクとガバナンスに関する米中対話のトピックス
- Authors: Saad Siddiqui, Lujain Ibrahim, Kristy Loke, Stephen Clare, Marianne Lu, Aris Richardson, Conor McGlynn, Jeffrey Ding,
- Abstract要約: 戦略的競争にもかかわらず、責任あるAIの開発において米国と中国が協力する具体的な機会がある。
我々は、両国の40以上の主要なAIポリシーと企業ガバナンス文書を分析します。
我々の分析は、グローバルな責任を持つAI開発を促進するために、異なる国際ガバナンスフレームワークをどのように調和させるかを理解するのに役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperation between the United States and China, the world's leading artificial intelligence (AI) powers, is crucial for effective global AI governance and responsible AI development. Although geopolitical tensions have emphasized areas of conflict, in this work, we identify potential common ground for productive dialogue by conducting a systematic analysis of more than 40 primary AI policy and corporate governance documents from both nations. Specifically, using an adapted version of the AI Governance and Regulatory Archive (AGORA) - a comprehensive repository of global AI governance documents - we analyze these materials in their original languages to identify areas of convergence in (1) sociotechnical risk perception and (2) governance approaches. We find strong and moderate overlap in several areas such as on concerns about algorithmic transparency, system reliability, agreement on the importance of inclusive multi-stakeholder engagement, and AI's role in enhancing safety. These findings suggest that despite strategic competition, there exist concrete opportunities for bilateral U.S.-China cooperation in the development of responsible AI. Thus, we present recommendations for furthering diplomatic dialogues that can facilitate such cooperation. Our analysis contributes to understanding how different international governance frameworks might be harmonized to promote global responsible AI development.
- Abstract(参考訳): 世界の主要な人工知能(AI)勢力である米国と中国の協力は、効果的なグローバルAIガバナンスと責任あるAI開発に不可欠である。
地政学的な緊張は紛争の領域を強調しているが、本研究では、40以上の主要なAI政策と両国の企業統治文書を体系的に分析することにより、生産的対話の潜在的な共通基盤を特定する。
具体的には、グローバルAIガバナンス文書の包括的なリポジトリであるAI Governance and Regulatory Archive(AGORA)の適応版を使用して、これらの資料を元の言語で分析し、(1)社会技術的リスク認識と(2)ガバナンスアプローチの収束領域を特定する。
アルゴリズムの透明性に関する懸念、システムの信頼性、包括的マルチステークホルダーエンゲージメントの重要性に関する合意、安全性向上におけるAIの役割など、いくつかの分野において、強く穏やかなオーバーラップが見られます。
これらの結果は、戦略的競争にもかかわらず、責任あるAIの開発において米国と中国が協力する具体的な機会があることを示唆している。
そこで我々は,このような協力を促進する外交対話を促進するための勧告を提示する。
我々の分析は、グローバルな責任を持つAI開発を促進するために、異なる国際ガバナンスフレームワークをどのように調和させるかを理解するのに役立ちます。
関連論文リスト
- AI Governance in the GCC States: A Comparative Analysis of National AI Strategies [0.0]
湾岸協力評議会(GCC)は、経済の多様化とサービスの強化を促進するために人工知能(AI)をますます採用している。
本稿では、アラブ首長国連邦、サウジアラビア、カタール、オマーン、バーレーン、クウェートの6カ国にわたるAIガバナンスの展開状況について検討する。
発見は、規制を拘束するのではなく、国家戦略と倫理原則を強調する「ソフトレギュレーション」アプローチを強調している。
論文 参考訳(メタデータ) (2025-05-04T16:25:52Z) - In Which Areas of Technical AI Safety Could Geopolitical Rivals Cooperate? [66.89036079974998]
我々は、AI安全研究における国際協力のリスクに影響を与える技術的要因を考察する。
我々は,このような協力が危険な能力を向上し,機密情報の共有や害の機会を提供する程度に焦点をあてる。
我々は、技術的AI安全研究の協力に特有の主要なリスクを考慮して、関連するリスクを管理する既存のフレームワークを補うことができると論じる。
論文 参考訳(メタデータ) (2025-04-17T13:03:56Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Responsible AI Governance: A Response to UN Interim Report on Governing AI for Humanity [15.434533537570614]
このレポートは、持続可能な開発目標を達成するためのAIの変革の可能性を強調している。
それは、関連するリスクを軽減するための堅牢なガバナンスの必要性を認めている。
報告書は、責任あるAIガバナンスを促進するための実行可能な原則で締めくくっている。
論文 参考訳(メタデータ) (2024-11-29T18:57:24Z) - Strategic AI Governance: Insights from Leading Nations [0.0]
人工知能(AI)は、さまざまな分野に革命をもたらす可能性があるが、その採用は、データプライバシ、セキュリティ、AI能力の理解に関する懸念によって妨げられることが多い。
本稿では、先進国のAI戦略をレビューすることで、AIガバナンスのアプローチ、戦略的テーマ、AI導入に向けたイネーブラーと課題を合成する。
論文 参考訳(メタデータ) (2024-09-16T06:00:42Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。