論文の概要: Nuclear Arms Control Verification and Lessons for AI Treaties
- arxiv url: http://arxiv.org/abs/2304.04123v1
- Date: Sat, 8 Apr 2023 23:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 17:39:01.889171
- Title: Nuclear Arms Control Verification and Lessons for AI Treaties
- Title(参考訳): AI条約における核兵器制御の検証と教訓
- Authors: Mauricio Baker
- Abstract要約: AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security risks from AI have motivated calls for international agreements that
guardrail the technology. However, even if states could agree on what rules to
set on AI, the problem of verifying compliance might make these agreements
infeasible. To help clarify the difficulty of verifying agreements on
AI$\unicode{x2013}$and identify actions that might reduce this
difficulty$\unicode{x2013}$this report examines the case study of verification
in nuclear arms control. We review the implementation, track records, and
politics of verification across three types of nuclear arms control agreements.
Then, we consider implications for the case of AI, especially AI development
that relies on thousands of highly specialized chips. In this context, the case
study suggests that, with certain preparations, the foreseeable challenges of
verification would be reduced to levels that were successfully managed in
nuclear arms control. To avoid even worse challenges, substantial preparations
are needed: (1) developing privacy-preserving, secure, and acceptably priced
methods for verifying the compliance of hardware, given inspection access; and
(2) building an initial, incomplete verification system, with authorities and
precedents that allow its gaps to be quickly closed if and when the political
will arises.
- Abstract(参考訳): AIによるセキュリティリスクは、テクノロジーを守るための国際協定の要求を動機付けている。
しかし、もし国家がAIにどのルールを設定するかに合意できたとしても、コンプライアンスを検証する問題はこれらの合意を無効にする可能性がある。
ai$\unicode{x2013}$の合意の検証の難しさを明らかにし、この困難さを低減させる可能性のあるアクションを特定するため、本報告は核兵器制御における検証のケーススタディを考察する。
我々は、3種類の核兵器規制協定の実施、記録の追跡、検証の政治についてレビューする。
そして、AI、特に数千の高度に専門化されたチップに依存するAI開発における意味を考察する。
この文脈において、このケーススタディは、特定の準備で、検証の予測可能な課題は、核兵器の制御でうまく管理されたレベルに還元されることを示唆している。
さらに深刻な問題を回避するためには、(1)ハードウェアのコンプライアンス、検査アクセス、(2)初期不完全な検証システムを構築するための、プライバシー保護、安全、そして許容可能な価格の方法を開発すること、(2)政治的意思が生じた場合、そのギャップを迅速に閉鎖できる当局や前例を整備することが必要である。
関連論文リスト
- False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
Particip-AIは、現在および将来のAIユースケースと、非専門家から損害と利益を収集するフレームワークである。
人口統計学的に多様な参加者295名から回答を得た。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Unfooling Perturbation-Based Post Hoc Explainers [12.599362066650842]
最近の研究は、摂動に基づくポストホックの説明を逆さまに騙すことが実証されている。
この発見は監査人、規制当局、その他のセンチネルに悪影響を及ぼす。
本研究では,この問題を厳格に定式化し,摂動型説明器に対する敵攻撃に対する防御策を考案する。
論文 参考訳(メタデータ) (2022-05-29T21:28:12Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。