論文の概要: Taking control: Policies to address extinction risks from AI
- arxiv url: http://arxiv.org/abs/2310.20563v1
- Date: Tue, 31 Oct 2023 15:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 14:31:29.855364
- Title: Taking control: Policies to address extinction risks from AI
- Title(参考訳): コントロールを取る:AIの絶滅リスクに対処する政策
- Authors: Andrea Miotti and Akash Wasil
- Abstract要約: AI企業からの自発的なコミットメントは不適切で不十分な反応である、と私たちは主張する。
先進的なAIの脅威に有意義に対処する3つの政策提案について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper provides policy recommendations to reduce extinction risks from
advanced artificial intelligence (AI). First, we briefly provide background
information about extinction risks from AI. Second, we argue that voluntary
commitments from AI companies would be an inappropriate and insufficient
response. Third, we describe three policy proposals that would meaningfully
address the threats from advanced AI: (1) establishing a Multinational AGI
Consortium to enable democratic oversight of advanced AI (MAGIC), (2)
implementing a global cap on the amount of computing power used to train an AI
system (global compute cap), and (3) requiring affirmative safety evaluations
to ensure that risks are kept below acceptable levels (gating critical
experiments). MAGIC would be a secure, safety-focused, internationally-governed
institution responsible for reducing risks from advanced AI and performing
research to safely harness the benefits of AI. MAGIC would also maintain
emergency response infrastructure (kill switch) to swiftly halt AI development
or withdraw model deployment in the event of an AI-related emergency. The
global compute cap would end the corporate race toward dangerous AI systems
while enabling the vast majority of AI innovation to continue unimpeded. Gating
critical experiments would ensure that companies developing powerful AI systems
are required to present affirmative evidence that these models keep extinction
risks below an acceptable threshold. After describing these recommendations, we
propose intermediate steps that the international community could take to
implement these proposals and lay the groundwork for international coordination
around advanced AI.
- Abstract(参考訳): 本稿では,先進人工知能(AI)による絶滅リスクを低減するための政策勧告を提供する。
まず、AIによる絶滅リスクに関する背景情報を簡潔に提供します。
第二に、AI企業からの自発的なコミットメントは不適切で不十分な反応である、と我々は主張する。
第3に,先進aiの脅威に対処するための3つの政策提案について述べる。(1)先進aiの民主的監視を可能にする多国間agiコンソーシアム(マジック)の設立,(2)aiシステム(グローバルコンピューティングキャップ)の訓練に使用する計算能力のグローバルキャップの実現,(3)リスクが許容可能なレベル以下に保持されることを保証するための肯定的安全性評価の要求(重要な実験の実施)。
MAGICは、高度なAIからのリスクを減らし、AIの利点を安全に活用する研究を行うための、安全で安全に焦点を当てた国際的な機関である。
MAGICはまた、AI関連の緊急時に、AI開発を迅速に停止する緊急対応インフラストラクチャ(キルスイッチ)を維持したり、モデル展開を中止する。
グローバルコンピューティングの上限は、危険なAIシステムへの企業競争を終わらせると同時に、AIイノベーションの大多数を未解決のままにすることを可能にします。
強力なaiシステムを開発する企業は、これらのモデルが絶滅のリスクを許容できる閾値以下に保つという肯定的な証拠を提示する必要がある。
これらの勧告を述べると、国際社会がこれらの提案を実行し、先進的なaiに関する国際協調の基礎となる中間的なステップを提案する。
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - An International Consortium for Evaluations of Societal-Scale Risks from
Advanced AI [10.550015825854837]
規制のギャップにより、AIラボは最小限の監視で研究、開発、デプロイメント活動を行うことができた。
フロンティアAIシステムの評価は、フロンティアAIシステムの開発と展開のリスクを評価する方法として提案されている。
本稿では,AI開発者とサードパーティのAIリスク評価者の両方からなる,AIリスク評価のための国際コンソーシアムの形でのソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-22T23:37:48Z) - Multinational AGI Consortium (MAGIC): A Proposal for International
Coordination on AI [0.0]
MAGICは、先進的なAIを開発することを許された世界で唯一の機関である。
我々は,グローバルガバナンス体制としてのMAGICが,先進的なAIの長期的かつ安全な規制の基盤となる,未来に対する肯定的なビジョンを提案する。
論文 参考訳(メタデータ) (2023-10-13T16:12:26Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。