論文の概要: Nuclear Arms Control Verification and Lessons for AI Treaties
- arxiv url: http://arxiv.org/abs/2304.04123v1
- Date: Sat, 8 Apr 2023 23:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 17:39:01.889171
- Title: Nuclear Arms Control Verification and Lessons for AI Treaties
- Title(参考訳): AI条約における核兵器制御の検証と教訓
- Authors: Mauricio Baker
- Abstract要約: AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security risks from AI have motivated calls for international agreements that
guardrail the technology. However, even if states could agree on what rules to
set on AI, the problem of verifying compliance might make these agreements
infeasible. To help clarify the difficulty of verifying agreements on
AI$\unicode{x2013}$and identify actions that might reduce this
difficulty$\unicode{x2013}$this report examines the case study of verification
in nuclear arms control. We review the implementation, track records, and
politics of verification across three types of nuclear arms control agreements.
Then, we consider implications for the case of AI, especially AI development
that relies on thousands of highly specialized chips. In this context, the case
study suggests that, with certain preparations, the foreseeable challenges of
verification would be reduced to levels that were successfully managed in
nuclear arms control. To avoid even worse challenges, substantial preparations
are needed: (1) developing privacy-preserving, secure, and acceptably priced
methods for verifying the compliance of hardware, given inspection access; and
(2) building an initial, incomplete verification system, with authorities and
precedents that allow its gaps to be quickly closed if and when the political
will arises.
- Abstract(参考訳): AIによるセキュリティリスクは、テクノロジーを守るための国際協定の要求を動機付けている。
しかし、もし国家がAIにどのルールを設定するかに合意できたとしても、コンプライアンスを検証する問題はこれらの合意を無効にする可能性がある。
ai$\unicode{x2013}$の合意の検証の難しさを明らかにし、この困難さを低減させる可能性のあるアクションを特定するため、本報告は核兵器制御における検証のケーススタディを考察する。
我々は、3種類の核兵器規制協定の実施、記録の追跡、検証の政治についてレビューする。
そして、AI、特に数千の高度に専門化されたチップに依存するAI開発における意味を考察する。
この文脈において、このケーススタディは、特定の準備で、検証の予測可能な課題は、核兵器の制御でうまく管理されたレベルに還元されることを示唆している。
さらに深刻な問題を回避するためには、(1)ハードウェアのコンプライアンス、検査アクセス、(2)初期不完全な検証システムを構築するための、プライバシー保護、安全、そして許容可能な価格の方法を開発すること、(2)政治的意思が生じた場合、そのギャップを迅速に閉鎖できる当局や前例を整備することが必要である。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Verification methods for international AI agreements [1.6874375111244329]
潜在的な2種類の違反を検出できる10の検証方法を検討した。
各検証手法について, 記述, 過去の事例, 回避技術について述べる。
論文 参考訳(メタデータ) (2024-08-28T18:15:19Z) - An FDA for AI? Pitfalls and Plausibility of Approval Regulation for Frontier Artificial Intelligence [0.0]
我々は、フロンティアAIの規制に対する承認規制、すなわち、実験的なミニマと、その実験で部分的にまたは完全に条件付けられた政府のライセンスとを組み合わせた製品の適用性について検討する。
承認規制が単に適用されたとしても、フロンティアAIのリスクには不適当であると考える理由はいくつかある。
規制開発における政策学習と実験の役割を強調して締めくくる。
論文 参考訳(メタデータ) (2024-08-01T17:54:57Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。