論文の概要: Comparative Global AI Regulation: Policy Perspectives from the EU, China, and the US
- arxiv url: http://arxiv.org/abs/2410.21279v1
- Date: Sat, 05 Oct 2024 18:08:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-03 09:21:06.138129
- Title: Comparative Global AI Regulation: Policy Perspectives from the EU, China, and the US
- Title(参考訳): 比較グローバルAI規制:EU、中国、米国からの政策視点
- Authors: Jon Chun, Christian Schroeder de Witt, Katherine Elkins,
- Abstract要約: 本稿は、EU、中国、米国による3つの異なるアプローチを比較した。
米国内では、連邦レベルでも州レベルでもAI規制を探求し、カリフォルニア州の差し迫った上院法案1047に焦点をあてています。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As a powerful and rapidly advancing dual-use technology, AI offers both immense benefits and worrisome risks. In response, governing bodies around the world are developing a range of regulatory AI laws and policies. This paper compares three distinct approaches taken by the EU, China and the US. Within the US, we explore AI regulation at both the federal and state level, with a focus on California's pending Senate Bill 1047. Each regulatory system reflects distinct cultural, political and economic perspectives. Each also highlights differing regional perspectives on regulatory risk-benefit tradeoffs, with divergent judgments on the balance between safety versus innovation and cooperation versus competition. Finally, differences between regulatory frameworks reflect contrastive stances in regards to trust in centralized authority versus trust in a more decentralized free market of self-interested stakeholders. Taken together, these varied approaches to AI innovation and regulation influence each other, the broader international community, and the future of AI regulation.
- Abstract(参考訳): パワフルで急速に進歩するデュアルユース技術として、AIは大きなメリットと厄介なリスクの両方を提供する。
これに応えて、世界中の統治団体が、さまざまな規制AI法とポリシーを策定している。
本稿は、EU、中国、米国による3つの異なるアプローチを比較した。
米国内では、連邦レベルでも州レベルでもAI規制を探求し、カリフォルニア州の差し迫った上院法案1047に焦点をあてています。
それぞれの規制制度は、文化的、政治的、経済的な視点を反映している。
それぞれが、安全とイノベーションのバランスと競争との協力の相違について、規制上のリスクと利益のトレードオフについて異なる地域的な視点を強調している。
最後に、規制枠組みの違いは、中央集権的な権威への信頼と、利害関係者のより分散化された自由市場への信頼に関する対照的なスタンスを反映している。
まとめると、これらのAIイノベーションと規制に対するアプローチは、相互に影響し合い、より広い国際社会、そしてAI規制の将来に影響を及ぼす。
関連論文リスト
- AI, Global Governance, and Digital Sovereignty [1.3976439685325095]
我々は、AIシステムがグローバルガバナンスに埋め込まれて、公的/民間の協力とコンテストのデュエルダイナミクスを生み出すことを議論している。
我々は、AIとグローバルガバナンスに関するIR研究の今後の方向性をスケッチして結論付ける。
論文 参考訳(メタデータ) (2024-10-23T00:05:33Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。