論文の概要: Hybrid Deep Learning Model for Multiple Cache Side Channel Attacks Detection: A Comparative Analysis
- arxiv url: http://arxiv.org/abs/2501.17123v1
- Date: Tue, 28 Jan 2025 18:14:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:43:00.826866
- Title: Hybrid Deep Learning Model for Multiple Cache Side Channel Attacks Detection: A Comparative Analysis
- Title(参考訳): 複数キャッシュ側チャネル攻撃検出のためのハイブリッドディープラーニングモデルの比較分析
- Authors: Tejal Joshi, Aarya Kawalay, Anvi Jamkhande, Amit Joshi,
- Abstract要約: キャッシュサイドチャネルアタックは、共有計算リソースの弱点を活用する。
本研究は、これらの脅威の特定の種類である指紋認証攻撃に焦点を当てる。
キャッシュ側チャネル攻撃を検出するためのハイブリッドディープラーニングモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Cache side channel attacks are a sophisticated and persistent threat that exploit vulnerabilities in modern processors to extract sensitive information. These attacks leverage weaknesses in shared computational resources, particularly the last level cache, to infer patterns in data access and execution flows, often bypassing traditional security defenses. Such attacks are especially dangerous as they can be executed remotely without requiring physical access to the victim's device. This study focuses on a specific class of these threats: fingerprinting attacks, where an adversary monitors and analyzes the behavior of co-located processes via cache side channels. This can potentially reveal confidential information, such as encryption keys or user activity patterns. A comprehensive threat model illustrates how attackers sharing computational resources with target systems exploit these side channels to compromise sensitive data. To mitigate such risks, a hybrid deep learning model is proposed for detecting cache side channel attacks. Its performance is compared with five widely used deep learning models: Multi-Layer Perceptron, Convolutional Neural Network, Simple Recurrent Neural Network, Long Short-Term Memory, and Gated Recurrent Unit. The experimental results demonstrate that the hybrid model achieves a detection rate of up to 99.96%. These findings highlight the limitations of existing models, the need for enhanced defensive mechanisms, and directions for future research to secure sensitive data against evolving side channel threats.
- Abstract(参考訳): キャッシュサイドチャネル攻撃は、最新プロセッサの脆弱性を利用して機密情報を抽出する、洗練された永続的な脅威である。
これらの攻撃は共有計算リソース、特に最後のレベルキャッシュの弱点を利用して、データアクセスと実行フローのパターンを推論し、しばしば従来のセキュリティ防御をバイパスする。
このような攻撃は、被害者のデバイスへの物理的アクセスを必要とせずに遠隔で実行できるため、特に危険である。
本研究は、これらの脅威の特定のクラスに焦点を当てている: フィンガープリント攻撃。敵がキャッシュ側チャネルを介して、共同配置されたプロセスの挙動を監視し、分析する。
これは暗号化キーやユーザアクティビティパターンなどの機密情報を開示する可能性がある。
包括的な脅威モデルでは、攻撃者がターゲットシステムと計算リソースを共有する方法が、これらのサイドチャネルを利用して機密データを侵害することを示している。
このようなリスクを軽減するために,キャッシュ側チャネル攻撃を検出するためのハイブリッドディープラーニングモデルを提案する。
その性能は、多層パーセプトロン、畳み込みニューラルネットワーク、単純なリカレントニューラルネットワーク、長期記憶、Gated Recurrent Unitの5つの広く使われているディープラーニングモデルと比較される。
実験の結果、ハイブリッドモデルは99.96%まで検出できることがわかった。
これらの知見は、既存のモデルの限界、防御機構の強化の必要性、そして、進化するサイドチャネル脅威に対する機密データを保護するための今後の研究の方向性を浮き彫りにしている。
関連論文リスト
- Attacking Slicing Network via Side-channel Reinforcement Learning Attack [9.428116807615407]
本稿では,ネットワークスライシング環境に特化して設計された,強化学習に基づくサイドチャネルキャッシュ攻撃フレームワークを提案する。
本フレームワークは,認証キーやユーザ登録データなどの機密情報を格納したキャッシュ位置を動的に識別し,活用する。
実験の結果, 約95%から98%の成功率を達成し, アプローチの優位性を示した。
論文 参考訳(メタデータ) (2024-09-17T15:07:05Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Black-box Adversarial Transferability: An Empirical Study in Cybersecurity Perspective [0.0]
敵対的機械学習では、悪意のあるユーザは、トレーニングまたはテストフェーズ中に、相手の摂動入力をモデルに挿入することで、ディープラーニングモデルを騙そうとします。
サイバー攻撃検知システムにおけるブラックボックスの逆転現象を実証的に検証する。
その結果,攻撃者が対象モデルの内部情報にアクセスできなくても,どんなディープラーニングモデルでも敵攻撃に強い影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-15T06:56:28Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Leaky Nets: Recovering Embedded Neural Network Models and Inputs through
Simple Power and Timing Side-Channels -- Attacks and Defenses [4.014351341279427]
ニューラルネットワーク実装のサイドチャネル脆弱性について,パラメータを復元して検討する。
我々は、異なる精度のネットワーク上で人気のあるマイクロコントローラプラットフォームに対する攻撃を実証する。
タイミングに基づく攻撃に対する対策を実施し、そのオーバーヘッドを分析する。
論文 参考訳(メタデータ) (2021-03-26T21:28:13Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。