論文の概要: Regulating Artificial Intelligence: Proposal for a Global Solution
- arxiv url: http://arxiv.org/abs/2005.11072v1
- Date: Fri, 22 May 2020 09:24:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 01:34:49.943887
- Title: Regulating Artificial Intelligence: Proposal for a Global Solution
- Title(参考訳): 人工知能の規制:グローバルソリューションの提案
- Authors: Olivia J. Erd\'elyi and Judy Goldsmith
- Abstract要約: 我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
- 参考スコア(独自算出の注目度): 6.037312672659089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With increasing ubiquity of artificial intelligence (AI) in modern societies,
individual countries and the international community are working hard to create
an innovation-friendly, yet safe, regulatory environment. Adequate regulation
is key to maximize the benefits and minimize the risks stemming from AI
technologies. Developing regulatory frameworks is, however, challenging due to
AI's global reach and the existence of widespread misconceptions about the
notion of regulation. We argue that AI-related challenges cannot be tackled
effectively without sincere international coordination supported by robust,
consistent domestic and international governance arrangements. Against this
backdrop, we propose the establishment of an international AI governance
framework organized around a new AI regulatory agency that -- drawing on
interdisciplinary expertise -- could help creating uniform standards for the
regulation of AI technologies and inform the development of AI policies around
the world. We also believe that a fundamental change of mindset on what
constitutes regulation is necessary to remove existing barriers that hamper
contemporary efforts to develop AI regulatory regimes, and put forward some
recommendations on how to achieve this, and what opportunities doing so would
present.
- Abstract(参考訳): 現代社会における人工知能(AI)の普及に伴い、個々の国と国際社会は、イノベーションに親しみやすい、安全で規制された環境を作ることに懸命に取り組んでいる。
適切な規制は、AI技術から生じるリスクを最大化し、最小化するための鍵である。
しかし、規制フレームワークの開発は、aiのグローバルリーチと規制の概念に関する広範な誤解の存在のために困難である。
我々は、堅牢で一貫した国内および国際的な統治体制によって支えられた国際調整が誠実でなければ、AI関連の課題に効果的に取り組むことはできないと論じる。
この背景に対して、我々は、ai技術の規制のための統一標準の作成と、世界中のaiポリシーの開発を知らせるのに役立つ学際的な専門知識に基づいて、新たなai規制機関を中心に組織された国際aiガバナンスフレームワークの創設を提案する。
また、AI規制体制の発展を妨げている既存の障壁を取り除くためには、規制を構成するものに対する考え方の根本的な変化が必要であると信じており、これを実現するための推奨事項と、それを行う機会を提示している。
関連論文リスト
- Navigating the sociotechnical labyrinth: Dynamic certification for responsible embodied AI [19.959138971887395]
我々は、社会技術的要求が人工知性(AI)システムのガバナンスを形成することを論じる。
提案する学際的アプローチは,AIシステムの安全性,倫理的,実践的な展開を保証するために設計されている。
論文 参考訳(メタデータ) (2024-08-16T08:35:26Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。