論文の概要: A proposal for an incident regime that tracks and counters threats to national security posed by AI systems
- arxiv url: http://arxiv.org/abs/2503.19887v1
- Date: Tue, 25 Mar 2025 17:51:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:52:37.869281
- Title: A proposal for an incident regime that tracks and counters threats to national security posed by AI systems
- Title(参考訳): AIシステムによる国家安全への脅威を追跡・対処するインシデント体制の提案
- Authors: Alejandro Ortega,
- Abstract要約: 我々は、AIシステムからの潜在的な国家安全保障上の脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントレジーを提案する。
私たちの提案は、AIシステムによって引き起こされる潜在的な国家安全保障上の脅威に対する政策上の関心から、タイムリーに行われます。
- 参考スコア(独自算出の注目度): 55.2480439325792
- License:
- Abstract: Recent progress in AI capabilities has heightened concerns that AI systems could pose a threat to national security, for example, by making it easier for malicious actors to perform cyberattacks on critical national infrastructure, or through loss of control of autonomous AI systems. In parallel, federal legislators in the US have proposed nascent 'AI incident regimes' to identify and counter similar threats. In this paper, we consolidate these two trends and present a proposal for a legally mandated post-deployment AI incident regie that aims to counter potential national security threats from AI systems. We start the paper by introducing the concept of 'security-critical' to describe doctors that pose extreme risks to national security, before arguing that 'security-critical' describes civilian nuclear power, aviation, life science dual-use research of concern, and frontier AI development. We then present in detail our AI incident regime proposal,, justifying each component of the proposal by demonstrating its similarity to US domestic incident regimes in other 'security-critical' sectors. Finally, we sketch a hypothetical scenario where our proposed AI incident regime deals with an AI cyber incident. Our proposed AI incident regime is split into three phases. The first phase revolves around a novel operationalization of what counts as an 'AI incident' and we suggest that AI providers must create a 'national security case' before deploying a frontier AI system. The second and third phases spell out that AI providers should notify a government agency about incidents, and that the government agency should be involved in amending AI providers' security and safety procedures, in order to counter future threats to national security. Our proposal is timely, given ongoing policy interest in the potential national security threats posed by AI systems.
- Abstract(参考訳): AI能力の最近の進歩は、悪意のあるアクターが重要な国家インフラでサイバー攻撃をしやすくしたり、自律的なAIシステムの制御を失うなど、AIシステムが国家安全保障に脅威をもたらすという懸念を高めている。
それと並行して、米国の連邦議会は、同様の脅威を特定し対処する「AIインシデント体制」を提案した。
本稿では、これらの2つのトレンドを統合し、AIシステムからの潜在的な国家安全保障脅威に対抗するために、法的に義務付けられたポストデプロイAIインシデントレジーを提案する。
我々は、民間の原子力、航空、生命科学における関心事の二重利用研究、フロンティアAI開発を「セキュリティクリティカル」と呼ぶ前に、国家安全保障に極端なリスクをもたらす医師を記述するために「セキュリティクリティカル」の概念を導入し始める。
そして、我々はAIインシデント制度の提案を詳細に提示し、他の「セキュリティクリティカル」分野における米国内インシデント制度と類似性を示すことによって、提案のそれぞれのコンポーネントを正当化する。
最後に、提案したAIインシデントがAIサイバーインシデントに対処する仮説シナリオをスケッチする。
提案するAIインシデント体制は,3段階に分けられる。
第1フェーズは,‘AIインシデント’として数えられるような,新たな運用方法を中心に展開されている。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、国家のセキュリティに対する将来の脅威に対抗するために、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきである、と説明されている。
私たちの提案は、AIシステムによって引き起こされる潜在的な国家安全保障上の脅威に対する政策上の関心から、タイムリーに行われます。
関連論文リスト
- Cyber Shadows: Neutralizing Security Threats with AI and Targeted Policy Measures [0.0]
サイバー脅威は個人、組織、社会レベルでリスクを引き起こす。
本稿では,AI駆動型ソリューションと政策介入を統合した包括的サイバーセキュリティ戦略を提案する。
論文 参考訳(メタデータ) (2025-01-03T09:26:50Z) - Trustworthy, Responsible, and Safe AI: A Comprehensive Architectural Framework for AI Safety with Challenges and Mitigations [15.946242944119385]
AI安全性は、AIシステムの安全な採用とデプロイにおいて重要な領域である。
私たちの目標は、AI安全研究の進歩を促進し、究極的には、デジタルトランスフォーメーションに対する人々の信頼を高めることです。
論文 参考訳(メタデータ) (2024-08-23T09:33:48Z) - AI Emergency Preparedness: Examining the federal government's ability to detect and respond to AI-related national security threats [0.2008854179910039]
緊急準備は、政府のAI進捗の監視と予測能力を向上させることができる。
1)コントロールの喪失(人間のコントロールを逃れることのできる強力なAIシステムからの脅威)、(2)悪意のあるアクターによるサイバーセキュリティの脅威、(3)生物兵器の増殖。
論文 参考訳(メタデータ) (2024-07-03T17:54:01Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Taking control: Policies to address extinction risks from AI [0.0]
AI企業からの自発的なコミットメントは不適切で不十分な反応である、と私たちは主張する。
先進的なAIの脅威に有意義に対処する3つの政策提案について述べる。
論文 参考訳(メタデータ) (2023-10-31T15:53:14Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。