論文の概要: International Agreements on AI Safety: Review and Recommendations for a Conditional AI Safety Treaty
- arxiv url: http://arxiv.org/abs/2503.18956v1
- Date: Tue, 18 Mar 2025 16:29:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-30 06:39:03.189269
- Title: International Agreements on AI Safety: Review and Recommendations for a Conditional AI Safety Treaty
- Title(参考訳): AI安全に関する国際協定:条件付きAI安全条約の見直しと勧告
- Authors: Rebecca Scholefield, Samuel Martin, Otto Barten,
- Abstract要約: GPAI(Advanced General-purpose AI)の悪意的使用や誤動作は「結婚や人類の絶滅」につながる可能性のあるリスクを引き起こす
これらのリスクに対処するため、AIの安全性に関する国際協定に関する提案が増えている。
本稿では,開発に厳格な監督を要する計算しきい値を確立する条約を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The malicious use or malfunction of advanced general-purpose AI (GPAI) poses risks that, according to leading experts, could lead to the 'marginalisation or extinction of humanity.' To address these risks, there are an increasing number of proposals for international agreements on AI safety. In this paper, we review recent (2023-) proposals, identifying areas of consensus and disagreement, and drawing on related literature to assess their feasibility. We focus our discussion on risk thresholds, regulations, types of international agreement and five related processes: building scientific consensus, standardisation, auditing, verification and incentivisation. Based on this review, we propose a treaty establishing a compute threshold above which development requires rigorous oversight. This treaty would mandate complementary audits of models, information security and governance practices, overseen by an international network of AI Safety Institutes (AISIs) with authority to pause development if risks are unacceptable. Our approach combines immediately implementable measures with a flexible structure that can adapt to ongoing research.
- Abstract(参考訳): 先進的な汎用AI(GPAI)の悪意ある使用や誤動作は、先進的な専門家によれば「人類の婚姻や絶滅」につながるリスクを生じさせる。
これらのリスクに対処するため、AIの安全性に関する国際協定に関する提案が増えている。
本稿では,近年の(2023-)提案を概観し,コンセンサスと不一致の領域を特定し,その可能性を評価するための関連文献について考察する。
我々は、リスクしきい値、規制、国際協定の種類、および関連する5つのプロセス、すなわち、科学的コンセンサスの構築、標準化、監査、検証、インセンティブ化に焦点を当てる。
本総説では,開発に厳格な監督を要する計算しきい値を確立する条約を提案する。
この条約は、AI安全研究所(AISI)の国際ネットワークが監督するモデル、情報セキュリティ、ガバナンスの実践を補完する監査を委任する。
我々のアプローチは、即時実装可能な測定と、進行中の研究に適応可能な柔軟な構造を組み合わせる。
関連論文リスト
- Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Advancing Trustworthy AI for Sustainable Development: Recommendations for Standardising AI Incident Reporting [2.209921757303168]
AI技術の利用の増加は、AIインシデントの増加、リスクの引き起こし、個人、組織、社会に害を与えている。
本研究では,このようなインシデントデータを確実かつ包括的に収集する標準プロトコルの欠如を認識し,対処する。
このギャップに対処するための標準化努力を強化するため、9つの実行可能な推奨事項を提案する。
論文 参考訳(メタデータ) (2025-01-01T17:34:57Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - An International Consortium for Evaluations of Societal-Scale Risks from
Advanced AI [10.550015825854837]
規制のギャップにより、AIラボは最小限の監視で研究、開発、デプロイメント活動を行うことができた。
フロンティアAIシステムの評価は、フロンティアAIシステムの開発と展開のリスクを評価する方法として提案されている。
本稿では,AI開発者とサードパーティのAIリスク評価者の両方からなる,AIリスク評価のための国際コンソーシアムの形でのソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-22T23:37:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。