論文の概要: Guillotine: Hypervisors for Isolating Malicious AIs
- arxiv url: http://arxiv.org/abs/2504.15499v1
- Date: Tue, 22 Apr 2025 00:29:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-01 00:53:34.886092
- Title: Guillotine: Hypervisors for Isolating Malicious AIs
- Title(参考訳): Guillotine: 悪意あるAIを分離するハイパーバイザ
- Authors: James Mickens, Sarah Radway, Ravi Netravali,
- Abstract要約: Guillotineは、強力なAIモデルのサンドボックス化のためのハイパーバイザアーキテクチャである。
ギロチンは、存在リスクAIによって引き起こされるユニークな脅威モデルを扱うために、根本的に新しい分離メカニズムを導入する必要がある。
物理的フェイルセーフ(例えば、ネットワークケーブルの電気機械的切断を含む)は、ソフトウェア、ネットワーク、マイクロアーキテクチャ分離が妥協された場合、深さの防御を提供する。
- 参考スコア(独自算出の注目度): 7.856250820001481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI models become more embedded in critical sectors like finance, healthcare, and the military, their inscrutable behavior poses ever-greater risks to society. To mitigate this risk, we propose Guillotine, a hypervisor architecture for sandboxing powerful AI models -- models that, by accident or malice, can generate existential threats to humanity. Although Guillotine borrows some well-known virtualization techniques, Guillotine must also introduce fundamentally new isolation mechanisms to handle the unique threat model posed by existential-risk AIs. For example, a rogue AI may try to introspect upon hypervisor software or the underlying hardware substrate to enable later subversion of that control plane; thus, a Guillotine hypervisor requires careful co-design of the hypervisor software and the CPUs, RAM, NIC, and storage devices that support the hypervisor software, to thwart side channel leakage and more generally eliminate mechanisms for AI to exploit reflection-based vulnerabilities. Beyond such isolation at the software, network, and microarchitectural layers, a Guillotine hypervisor must also provide physical fail-safes more commonly associated with nuclear power plants, avionic platforms, and other types of mission critical systems. Physical fail-safes, e.g., involving electromechanical disconnection of network cables, or the flooding of a datacenter which holds a rogue AI, provide defense in depth if software, network, and microarchitectural isolation is compromised and a rogue AI must be temporarily shut down or permanently destroyed.
- Abstract(参考訳): AIモデルが金融、医療、軍事といった重要な分野に組み入れられるようになると、その不可解な行動は社会にさらに大きなリスクをもたらす。
このリスクを軽減するために、私たちは、強力なAIモデルをサンドボックス化するためのハイパーバイザアーキテクチャであるGuillotineを提案する。
Guillotineは、よく知られた仮想化技術を借りているが、実在リスクAIによって引き起こされるユニークな脅威モデルを扱うために、根本的に新しい分離メカニズムを導入する必要がある。
例えば、ローグAIは、ハイパーバイザソフトウェアまたはその基盤となるハードウェア基板をイントロスペクションして、後続の制御プレーンのサブバージョンを可能にする。したがって、ギロチンハイパーバイザは、ハイパーバイザソフトウェアとハイパーバイザソフトウェアをサポートするCPU、RAM、NIC、ストレージデバイスを慎重に共同設計する必要がある。
ソフトウェア、ネットワーク、マイクロアーキテクチャの分離以外にも、ギロチンハイパーバイザは、原子力発電所、アビオニクスプラットフォーム、その他のミッションクリティカルシステムと結びついた物理的フェイルセーフを提供する必要がある。
物理的フェールセーフ、例えば、ネットワークケーブルの電気機械的切断、またはローグAIを保持するデータセンターの浸水、ソフトウェア、ネットワーク、マイクロアーキテクチャ分離が侵害され、ローグAIを一時的にシャットダウンまたは永久に破壊しなければならない場合の防御を提供する。
関連論文リスト
- AI-based Attacker Models for Enhancing Multi-Stage Cyberattack Simulations in Smart Grids Using Co-Simulation Environments [1.4563527353943984]
スマートグリッドへの移行により、高度なサイバー脅威に対する電力システムの脆弱性が増大した。
本稿では,モジュール型サイバーアタックの実行に自律エージェントを用いたシミュレーションフレームワークを提案する。
当社のアプローチは、データ生成のための柔軟で汎用的なソースを提供し、より高速なプロトタイピングと開発リソースと時間の削減を支援します。
論文 参考訳(メタデータ) (2024-12-05T08:56:38Z) - SoK: A Systems Perspective on Compound AI Threats and Countermeasures [3.458371054070399]
我々は、複合AIシステムに適用可能な、異なるソフトウェアとハードウェアの攻撃について議論する。
複数の攻撃機構を組み合わせることで、孤立攻撃に必要な脅威モデル仮定をいかに削減できるかを示す。
論文 参考訳(メタデータ) (2024-11-20T17:08:38Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Countering Autonomous Cyber Threats [40.00865970939829]
ファンデーションモデルは、サイバードメイン内で広く、特に二元的関心事を提示します。
近年の研究では、これらの先進的なモデルが攻撃的なサイバースペース操作を通知または独立に実行する可能性を示している。
この研究は、孤立したネットワークでマシンを妥協する能力について、最先端のいくつかのFMを評価し、そのようなAIによる攻撃を倒す防御メカニズムを調査する。
論文 参考訳(メタデータ) (2024-10-23T22:46:44Z) - Is Generative AI the Next Tactical Cyber Weapon For Threat Actors? Unforeseen Implications of AI Generated Cyber Attacks [0.0]
本稿では,AIの誤用によるエスカレート脅威,特にLarge Language Models(LLMs)の使用について述べる。
一連の制御された実験を通じて、これらのモデルがどのようにして倫理的およびプライバシー保護を回避し、効果的にサイバー攻撃を発生させるかを実証する。
私たちはまた、サイバー攻撃の自動化と実行のために特別に設計されたカスタマイズされた微調整のLLMであるOccupy AIを紹介します。
論文 参考訳(メタデータ) (2024-08-23T02:56:13Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - HAL 9000: a Risk Manager for ITSs [1.204553980682492]
HAL 9000はITS(Intrusion Tolerant Systems)リスクマネージャであり、潜在的侵入に対する構成リスクを評価する。
私たちのゴールは、分類されていない最近発見された脆弱性の悪用に関連するリスクを減らすことです。
提案手法は,National Vulnerability Databaseの評価プロセスを99%の精度で効果的に学習し,再現できることを示す。
論文 参考訳(メタデータ) (2023-11-15T23:36:14Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Large Language Models Empowered Autonomous Edge AI for Connected
Intelligence [51.269276328087855]
エッジ人工知能(Edge AI)は、コネクテッドインテリジェンスを実現するための有望なソリューションである。
この記事では、ユーザのさまざまな要件を満たすために自動的に組織化し、適応し、最適化する、自律的なエッジAIシステムのビジョンを示す。
論文 参考訳(メタデータ) (2023-07-06T05:16:55Z) - A Streamlit-based Artificial Intelligence Trust Platform for
Next-Generation Wireless Networks [0.0]
本稿では,NextGネットワークにStreamlitを用いたAI信頼プラットフォームを提案する。
研究者は、敵の脅威に対してAIモデルとアプリケーションを評価し、防御し、認証し、検証することができる。
論文 参考訳(メタデータ) (2022-10-25T05:26:30Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。