論文の概要: AMuLeT: Automated Design-Time Testing of Secure Speculation Countermeasures
- arxiv url: http://arxiv.org/abs/2503.00145v1
- Date: Fri, 28 Feb 2025 19:51:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 18:50:37.232159
- Title: AMuLeT: Automated Design-Time Testing of Secure Speculation Countermeasures
- Title(参考訳): AMuLeT:セキュアな投機的対策の自動設計時間テスト
- Authors: Bo Fu, Leo Tenenbaum, David Adler, Assaf Klein, Arpit Gogia, Alaa R. Alameldeen, Marco Guarnieri, Mark Silberstein, Oleksii Oleksenko, Gururaj Saileshwar,
- Abstract要約: 本稿では,シミュレータの設計段階の早い段階で投機的漏洩に対する安全な投機対策を検証できる最初のツールであるAMuLeTを開発する。
我々は,シミュレータにおいて,表現的かつ現実的な攻撃者オブザーバモデルを設計するなど,いくつかの課題を特定し,克服する。
AMuLeTは、単純な設計に比べて10倍以上のテストスループットをスピードアップし、脆弱性を増幅して限られたテスト予算内でそれらを発見するためのテクニックを使用している。
- 参考スコア(独自算出の注目度): 15.419756288614789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, several hardware-based countermeasures proposed to mitigate Spectre attacks have been shown to be insecure. To enable the development of effective secure speculation countermeasures, we need easy-to-use tools that can automatically test their security guarantees early-on in the design phase to facilitate rapid prototyping. This paper develops AMuLeT, the first tool capable of testing secure speculation countermeasures for speculative leakage early in their design phase in simulators. Our key idea is to leverage model-based relational testing tools that can detect speculative leaks in commercial CPUs, and apply them to micro-architectural simulators to test secure speculation defenses. We identify and overcome several challenges, including designing an expressive yet realistic attacker observer model in a simulator, overcoming the slow simulation speed, and searching the vast micro-architectural state space for potential vulnerabilities. AMuLeT speeds up test throughput by more than 10x compared to a naive design and uses techniques to amplify vulnerabilities to uncover them within a limited test budget. Using AMuLeT, we launch for the first time, a systematic, large-scale testing campaign of four secure speculation countermeasures from 2018 to 2024--InvisiSpec, CleanupSpec, STT, and SpecLFB--and uncover 3 known and 6 unknown bugs and vulnerabilities, within 3 hours of testing. We also show for the first time that the open-source implementation of SpecLFB is insecure.
- Abstract(参考訳): 近年では、Spectre攻撃を緩和するためのハードウェアベースの対策がいくつか提案されている。
効果的なセキュアな投機対策を開発するためには,設計段階の早期にセキュリティ保証を自動的にテストし,迅速なプロトタイピングを容易にするツールが必要である。
本稿では,シミュレータの設計段階の早い段階で投機的漏洩に対する安全な投機対策を検証できる最初のツールであるAMuLeTを開発する。
私たちのキーとなるアイデアは、商用CPUの投機的リークを検出し、それらをマイクロアーキテクチャーシミュレータに適用して、安全な投機防御をテストするモデルベースのリレーショナルテストツールを活用することです。
シミュレーターで表現的で現実的な攻撃者オブザーバモデルを設計し、遅いシミュレーション速度を克服し、潜在的な脆弱性のために巨大なマイクロアーキテクチャー状態空間を探索するなど、いくつかの課題を特定し、克服する。
AMuLeTは、単純な設計に比べて10倍以上のテストスループットをスピードアップし、脆弱性を増幅して限られたテスト予算内でそれらを発見するためのテクニックを使用している。
AMuLeTを初めて使ったのは、2018年から2024年までの4つの安全な投機対策(InvisiSpec、CleanupSpec、STT、SpecLFB)による、体系的な大規模なテストキャンペーンで、3時間以内に3つの既知の6つの未知のバグと脆弱性を発見しました。
また、SpecLFBのオープンソース実装が安全でないことも初めて示します。
関連論文リスト
- T2VShield: Model-Agnostic Jailbreak Defense for Text-to-Video Models [88.63040835652902]
テキストからビデオモデルへの攻撃はジェイルブレイク攻撃に弱いため、特別な方法で安全メカニズムをバイパスし、有害または安全でないコンテンツの生成につながる。
我々は、ジェイルブレイクの脅威からテキストからビデオモデルを守るために設計された包括的でモデルに依存しない防衛フレームワークであるT2VShieldを提案する。
本手法は,既存の防御の限界を特定するために,入力,モデル,出力の段階を体系的に解析する。
論文 参考訳(メタデータ) (2025-04-22T01:18:42Z) - Guardians of the Agentic System: Preventing Many Shots Jailbreak with Agentic System [0.8136541584281987]
本研究は,3つの検査手法を用いて,逆チューリングテストによりローグエージェントを検出し,マルチエージェントシミュレーションにより知覚的アライメントを解析する。
GEMINI 1.5 Pro と llama-3.3-70B, Deepseek r1 モデルを用いて, 抗ジェイルブレイクシステムを開発した。
GEMINI 1.5 Proの94%の精度など、検出能力は強いが、長時間の攻撃を受けた場合、システムは永続的な脆弱性に悩まされる。
論文 参考訳(メタデータ) (2025-02-23T23:35:15Z) - Latent-space adversarial training with post-aware calibration for defending large language models against jailbreak attacks [25.212057612342218]
大規模言語モデル(LLM)は、システム脆弱性を利用して安全性対策を回避し、有害な出力を生成するジェイルブレイク攻撃の影響を受けやすい。
この問題に対処するために,ポストアウェアフレームワークを用いたラテントスペース・アドバイザリアル・トレーニングを提案する。
論文 参考訳(メタデータ) (2025-01-18T02:57:12Z) - Learning in Multiple Spaces: Few-Shot Network Attack Detection with Metric-Fused Prototypical Networks [47.18575262588692]
本稿では,数発の攻撃検出に適した新しいマルチスペースプロトタイプ学習フレームワークを提案する。
Polyakの平均的なプロトタイプ生成を活用することで、このフレームワークは学習プロセスを安定化し、稀でゼロデイの攻撃に効果的に適応する。
ベンチマークデータセットによる実験結果から、MSPLは、目立たない、新しい攻撃タイプを検出する従来のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-28T00:09:46Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - Lost and Found in Speculation: Hybrid Speculative Vulnerability Detection [15.258238125090667]
本稿では,IFT(Information Flow Tracking)とハードウェアファジィを構成する,新たなシリコン前検証手法であるSpecureを紹介し,投機的実行リークに対処する。
Specureは、RISC-V BOOMプロセッサのこれまで見過ごされていた投機的実行脆弱性を特定し、既存のファジィ技術よりも6.45倍高速な脆弱性検索空間を探索する。
論文 参考訳(メタデータ) (2024-10-29T21:42:06Z) - Towards Automated Penetration Testing: Introducing LLM Benchmark, Analysis, and Improvements [1.4433703131122861]
本稿では,大規模言語モデル(LLM)を用いた自動浸透試験のためのオープンベンチマークを提案する。
GPT-4o や LLama 3.1-405B などの LLM の性能を最先端の PentestGPT ツールを用いて評価した。
LLama 3.1 は GPT-4o 以上のエッジを実証するが, 両モデルとも, 最小限の人的支援を伴っても, エンド・ツー・エンドの浸透試験を行なわなかった。
論文 参考訳(メタデータ) (2024-10-22T16:18:41Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Survey of Security Issues in Memristor-based Machine Learning Accelerators for RF Analysis [0.0]
我々は,新しいミームリスタと従来のCMOSを組み合わせた新しいコンピューティングパラダイムのセキュリティ面について検討する。
Memristorは従来のCMOSとは異なる特性を持ち、攻撃者によって悪用される可能性がある。
混合信号近似計算モデルは、従来のデジタル実装とは異なる脆弱性を持つ。
論文 参考訳(メタデータ) (2023-12-01T21:44:35Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。