論文の概要: International Institutions for Advanced AI
- arxiv url: http://arxiv.org/abs/2307.04699v1
- Date: Mon, 10 Jul 2023 16:55:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 12:11:33.659700
- Title: International Institutions for Advanced AI
- Title(参考訳): 先端AIのための国際機関
- Authors: Lewis Ho, Joslyn Barnhart, Robert Trager, Yoshua Bengio, Miles
Brundage, Allison Carnegie, Rumman Chowdhury, Allan Dafoe, Gillian Hadfield,
Margaret Levi, Duncan Snidal
- Abstract要約: 国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
- 参考スコア(独自算出の注目度): 47.449762587672986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: International institutions may have an important role to play in ensuring
advanced AI systems benefit humanity. International collaborations can unlock
AI's ability to further sustainable development, and coordination of regulatory
efforts can reduce obstacles to innovation and the spread of benefits.
Conversely, the potential dangerous capabilities of powerful and
general-purpose AI systems create global externalities in their development and
deployment, and international efforts to further responsible AI practices could
help manage the risks they pose. This paper identifies a set of governance
functions that could be performed at an international level to address these
challenges, ranging from supporting access to frontier AI systems to setting
international safety standards. It groups these functions into four
institutional models that exhibit internal synergies and have precedents in
existing organizations: 1) a Commission on Frontier AI that facilitates expert
consensus on opportunities and risks from advanced AI, 2) an Advanced AI
Governance Organization that sets international standards to manage global
threats from advanced models, supports their implementation, and possibly
monitors compliance with a future governance regime, 3) a Frontier AI
Collaborative that promotes access to cutting-edge AI, and 4) an AI Safety
Project that brings together leading researchers and engineers to further AI
safety research. We explore the utility of these models and identify open
questions about their viability.
- Abstract(参考訳): 国際機関は、高度なAIシステムが人類に利益をもたらすために重要な役割を果たすかもしれない。
国際協力は、AIのさらなる持続可能な開発能力を解き放ち、規制努力の調整はイノベーションの障害と利益の拡散を減少させる。
逆に、強力で汎用的なaiシステムの潜在的な危険な能力は、彼らの開発と展開においてグローバルな外部性を生み出します。
本稿は、フロンティアAIシステムへのアクセス支援から国際安全基準設定まで、これらの課題に対処するために国際レベルで実施可能な一連のガバナンス機能を特定する。
これらの機能を、内部のシナジーを示し、既存の組織に先例を持つ4つの機関モデルに分類する。
1)先進的AIの機会及びリスクに関する専門家のコンセンサスを促進するフロンティアAI委員会
2)先進モデルからグローバル脅威を管理するための国際標準を設定し、それらの実装をサポートし、将来的なガバナンス体制へのコンプライアンスを監視する先進的なaiガバナンス組織。
3)最先端AIへのアクセスを促進するフロンティアAIコラボレーション。
4)aiの安全性研究に先導的な研究者とエンジニアを集結させるaiの安全性プロジェクト。
これらのモデルの実用性を探求し、その実現可能性に関するオープンな質問を特定します。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - The Role of AI Safety Institutes in Contributing to International Standards for Frontier AI Safety [0.0]
我々は、AI安全研究所(AISI)が、AI安全のための国際標準設定プロセスに貢献するように適切に設定されていると論じる。
我々は、ソウル宣言署名者、米国(およびその他のソウル宣言署名者)、中国、グローバル包括的3つのモデルを提案し、評価する。
論文 参考訳(メタデータ) (2024-09-17T16:12:54Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - A Brief Overview of AI Governance for Responsible Machine Learning
Systems [3.222802562733787]
このポジションペーパーは、AIの責任ある使用を監督するように設計されたフレームワークである、AIガバナンスの簡単な紹介を提案する。
AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
論文 参考訳(メタデータ) (2022-11-21T23:48:51Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。