論文の概要: Governing dual-use technologies: Case studies of international security agreements and lessons for AI governance
- arxiv url: http://arxiv.org/abs/2409.02779v1
- Date: Wed, 4 Sep 2024 14:56:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-05 17:30:00.650896
- Title: Governing dual-use technologies: Case studies of international security agreements and lessons for AI governance
- Title(参考訳): 二重利用技術の統治:国際安全保障協定の事例とAIガバナンスの教訓
- Authors: Akash R. Wasil, Peter Barnett, Michael Gerovitch, Roman Hauksson, Tom Reed, Jack William Miller,
- Abstract要約: 国際AIガバナンス協定や機関は、先進的なAIからグローバルなセキュリティリスクを減らす上で重要な役割を果たす可能性がある。
我々は歴史的・現代国際安全保障協定のケーススタディを行った。
a)目的,(b)コアパワー,(c)ガバナンス構造,(d)非コンプライアンスの4つの重要な領域について検討した。
- 参考スコア(独自算出の注目度): 1.4843690728082002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: International AI governance agreements and institutions may play an important role in reducing global security risks from advanced AI. To inform the design of such agreements and institutions, we conducted case studies of historical and contemporary international security agreements. We focused specifically on those arrangements around dual-use technologies, examining agreements in nuclear security, chemical weapons, biosecurity, and export controls. For each agreement, we examined four key areas: (a) purpose, (b) core powers, (c) governance structure, and (d) instances of non-compliance. From these case studies, we extracted lessons for the design of international AI agreements and governance institutions. We discuss the importance of robust verification methods, strategies for balancing power between nations, mechanisms for adapting to rapid technological change, approaches to managing trade-offs between transparency and security, incentives for participation, and effective enforcement mechanisms.
- Abstract(参考訳): 国際AIガバナンス協定や機関は、先進的なAIからグローバルなセキュリティリスクを減らす上で重要な役割を果たす可能性がある。
このような協定や機関の設計について, 歴史的・現代国際安全保障協定の事例研究を行った。
我々は、核安全保障、化学兵器、バイオセキュリティ、輸出管理に関する合意について調べ、二重利用技術に関するこれらの取組に特に焦点をあてた。
各合意について,4つの重要な領域について検討した。
目的; 目的; 目的; 目的; 目的; 目的; 目的
(b)コアパワー
(c)統治構造、及び
(d) 非準拠の例。
これらのケーススタディから,国際AI協定やガバナンス機関の設計に関する教訓を抽出した。
我々は、堅牢な検証方法の重要性、国家間の権力バランスの戦略、急速な技術変革に対応するためのメカニズム、透明性とセキュリティの間のトレードオフを管理するためのアプローチ、参加のインセンティブ、効果的な実施メカニズムについて論じる。
関連論文リスト
- Towards Adaptive AI Governance: Comparative Insights from the U.S., EU, and Asia [0.0]
本研究は、米国(米国)、欧州連合(EU)、アジアにおけるAIトレンドの比較分析を行う。
生成AI、倫理的監視、産業応用の3つの重要な側面に焦点を当てている。
米国は最小限の規制制約で市場主導のイノベーションを優先し、EUは倫理的保護を強調する予防的リスクベースのフレームワークを施行し、アジアは規制の監督と迅速な展開のバランスをとる国家主導のAI戦略を採用している。
論文 参考訳(メタデータ) (2025-04-01T11:05:47Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - International Agreements on AI Safety: Review and Recommendations for a Conditional AI Safety Treaty [0.0]
GPAI(Advanced General-purpose AI)の悪意的使用や誤動作は「結婚や人類の絶滅」につながる可能性のあるリスクを引き起こす
これらのリスクに対処するため、AIの安全性に関する国際協定に関する提案が増えている。
本稿では,開発に厳格な監督を要する計算しきい値を確立する条約を提案する。
論文 参考訳(メタデータ) (2025-03-18T16:29:57Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Mapping the Regulatory Learning Space for the EU AI Act [0.8987776881291145]
EUのAI法は、具体的な執行措置による世界最初の国際的AI規制である。
製品健康と安全の規制のための既存のEU機構を基盤としているが、基本的権利を保護するために拡張されている。
これらの拡張は、AIシステムの認証と執行活動に対して、その技術の技術的な状態がどのように適用されるかという点で不確実性を導入する。
これらの不確実性は、AIの急速に変化する性質と、基本的権利リスク管理における技術状態の相対的な未成熟さと相まって、包括的で迅速な規制学習に強く重点を置くために、AI法の実装を必要としている、と我々は主張する。
論文 参考訳(メタデータ) (2025-02-27T12:46:30Z) - Local Differences, Global Lessons: Insights from Organisation Policies for International Legislation [22.476305606415995]
本稿では、ボトムアップガバナンスアプローチがAIの利用と監視をいかに形成するかを理解するために、ニュース機関と大学という2つの領域におけるAIポリシーを検討する。
私たちは、バイアス、プライバシー、誤情報、説明責任といったリスクに対処する方法において、収束と分散の重要な領域を特定します。
ドメイン固有のAIポリシから学んだことは、グローバルレベルでより適応的で効果的なAIガバナンスに寄与する、と私たちは主張する。
論文 参考訳(メタデータ) (2025-02-19T15:59:09Z) - Comparative Global AI Regulation: Policy Perspectives from the EU, China, and the US [0.0]
本稿は、EU、中国、米国による3つの異なるアプローチを比較した。
米国内では、連邦レベルでも州レベルでもAI規制を探求し、カリフォルニア州の差し迫った上院法案1047に焦点をあてています。
論文 参考訳(メタデータ) (2024-10-05T18:08:48Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - Position Paper: Technical Research and Talent is Needed for Effective AI Governance [0.0]
我々は、EU、米国、中国の公共機関が発行する政策文書を調査する。
我々は、提案された政策行動の実施に必要な技術的要件と、現在の技術状況とを、特定の領域で切り離すことを強調します。
我々の分析は、AIガバナンスにおけるAI/ML研究コミュニティのより緊密な統合を呼び起こします。
論文 参考訳(メタデータ) (2024-06-11T06:32:28Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Nuclear Arms Control Verification and Lessons for AI Treaties [0.0]
AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
論文 参考訳(メタデータ) (2023-04-08T23:05:24Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。