論文の概要: Confronting Catastrophic Risk: The International Obligation to Regulate Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2503.18983v1
- Date: Sun, 23 Mar 2025 06:24:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:52:39.720052
- Title: Confronting Catastrophic Risk: The International Obligation to Regulate Artificial Intelligence
- Title(参考訳): 破滅的なリスクを克服する - 人工知能の国際的規制
- Authors: Bryan Druzin, Anatole Boute, Michael Ramsden,
- Abstract要約: 我々は、AIによる人間の絶滅の脅威を軽減するための国際的義務があると主張している。
我々は、AIの潜在的な存在リスクを軽減するために、規制措置を積極的に取ることが国際人権法における生命権の下での国家に対する肯定的な義務であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: While artificial intelligence (AI) holds enormous promise, many experts in the field are warning that there is a non-trivial chance that the development of AI poses an existential threat to humanity. Existing regulatory initiative do not address this threat but merely instead focus on discrete AI-related risks such as consumer safety, cybersecurity, data protection, and privacy. In the absence of regulatory action to address the possible risk of human extinction by AI, the question arises: What legal obligations, if any, does public international law impose on states to regulate its development. Grounded in the precautionary principle, we argue that there exists an international obligation to mitigate the threat of human extinction by AI. Often invoked in relation to environmental regulation and the regulation of potentially harmful technologies, the principle holds that in situations where there is the potential for significant harm, even in the absence of full scientific certainty, preventive measures should not be postponed if delayed action may result in irreversible consequences. We argue that the precautionary principle is a general principle of international law and, therefore, that there is a positive obligation on states under the right to life within international human rights law to proactively take regulatory action to mitigate the potential existential risk of AI. This is significant because, if an international obligation to regulate the development of AI can be established under international law, then the basic legal framework would be in place to address this evolving threat.
- Abstract(参考訳): 人工知能(AI)は大きな可能性を秘めているが、この分野の専門家の多くは、AIの開発が人間に現実的な脅威をもたらすという自明な可能性があると警告している。
既存の規制イニシアチブは、この脅威に対処するのではなく、消費者の安全、サイバーセキュリティ、データ保護、プライバシといった、AI関連の個別のリスクに焦点を当てている。
AIによるヒトの絶滅のリスクに対処する規制措置が欠如している場合、次のような問題が発生する。
予防原則に基づいて、我々は、AIによる人間の絶滅の脅威を軽減するための国際的義務があると主張している。
環境規制や潜在的に有害な技術の規制に関してしばしば呼び出されるこの原則は、重大な害の可能性がある状況において、完全な科学的確実性がない場合でも、遅延した行動が不可逆的な結果をもたらす可能性がある場合は予防措置を延期すべきでないというものである。
我々は、予防原則は国際法の一般的な原則であり、それゆえ、AIの潜在的な存在リスクを軽減するための規制措置を積極的に取るべき、国際人権法の範囲内における生命権下の国家に対して、肯定的な義務があると主張している。
これは、もしAIの開発を規制する国際義務が国際法の下で確立できれば、この進化する脅威に対処するための基本的な法的枠組みが成立するからである。
関連論文リスト
- Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - US-China perspectives on extreme AI risks and global governance [0.0]
私たちは、先進的な人工知能による安全とセキュリティの脅威を各国の専門家がどのように表現するかをよりよく理解しようとしました。
我々は、AI(Artificial General Intelligence, AGI)のような高度な人工知能の形式に着目した分析を行った。
両国の専門家は、AGIからのリスク、諜報機関の爆発によるリスク、そして人間のコントロールから逃れるAIシステムからのリスクについて懸念を表明した。
論文 参考訳(メタデータ) (2024-06-23T17:31:27Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。