論文の概要: Power side-channel leakage localization through adversarial training of deep neural networks
- arxiv url: http://arxiv.org/abs/2410.22425v1
- Date: Tue, 29 Oct 2024 18:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:28:08.515012
- Title: Power side-channel leakage localization through adversarial training of deep neural networks
- Title(参考訳): ディープニューラルネットワークの対向学習によるパワーサイドチャネルリークローカライゼーション
- Authors: Jimmy Gammell, Anand Raghunathan, Kaushik Roy,
- Abstract要約: 監視されたディープラーニングは、暗号実装に対するパワーサイドチャネル攻撃を実行する効果的なツールとして登場した。
本稿では,暗号鍵の漏洩の原因となるパワートレースのタイムステップを特定する手法を提案する。
- 参考スコア(独自算出の注目度): 10.840434597980723
- License:
- Abstract: Supervised deep learning has emerged as an effective tool for carrying out power side-channel attacks on cryptographic implementations. While increasingly-powerful deep learning-based attacks are regularly published, comparatively-little work has gone into using deep learning to defend against these attacks. In this work we propose a technique for identifying which timesteps in a power trace are responsible for leaking a cryptographic key, through an adversarial game between a deep learning-based side-channel attacker which seeks to classify a sensitive variable from the power traces recorded during encryption, and a trainable noise generator which seeks to thwart this attack by introducing a minimal amount of noise into the power traces. We demonstrate on synthetic datasets that our method can outperform existing techniques in the presence of common countermeasures such as Boolean masking and trace desynchronization. Results on real datasets are weak because the technique is highly sensitive to hyperparameters and early-stop point, and we lack a holdout dataset with ground truth knowledge of leaking points for model selection. Nonetheless, we believe our work represents an important first step towards deep side-channel leakage localization without relying on strong assumptions about the implementation or the nature of its leakage. An open-source PyTorch implementation of our experiments is provided.
- Abstract(参考訳): 監視されたディープラーニングは、暗号実装に対するパワーサイドチャネル攻撃を実行する効果的なツールとして登場した。
ますます強力なディープラーニングベースの攻撃が定期的に公表される一方で、比較的小さな研究がディープラーニングを使ってこれらの攻撃を防御している。
本研究では、暗号化中に記録されたパワートレースから機密変数を分類しようとするディープラーニングベースのサイドチャネルアタッカーと、この攻撃を最小限のノイズをパワートレースに導入して阻止しようとするトレーニング可能なノイズ発生装置との対戦ゲームを通じて、暗号鍵の漏洩の原因となるパワートレースのタイムステップを特定する手法を提案する。
本手法は, ブールマスキングやトレースデシンクロナイゼーションといった一般的な対策の存在下で, 既存の手法よりも優れていることを示す。
実際のデータセットの結果は、ハイパーパラメータやアーリーストップポイントに非常に敏感であり、モデル選択のための点のリークに関する基礎的な真実知識を持つホールドアウトデータセットが欠落しているため、弱い。
いずれにせよ,我々の研究は,その実装やリークの性質に関する強い前提に頼らず,深層側チャネルのリークローカライゼーションに向けた重要な第一歩であると信じている。
本実験のオープンソースPyTorch実装について述べる。
関連論文リスト
- Real is not True: Backdoor Attacks Against Deepfake Detection [9.572726483706846]
本稿では,Bad-Deepfake(Bad-Deepfake)と命名された先駆的パラダイムを導入する。
我々のアプローチはトレーニングデータのサブセットを戦略的に操作することで、トレーニングされたモデルの運用特性に対する不均等な影響を軽減します。
論文 参考訳(メタデータ) (2024-03-11T10:57:14Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Poisoning Network Flow Classifiers [10.055241826257083]
本稿では,ネットワークトラフィックフロー分類器に対する毒性攻撃,特にバックドア攻撃に焦点を当てた。
学習データのみを改ざんすることを相手の能力に制約するクリーンラベル中毒の難易度シナリオについて検討した。
本稿では, モデル解釈可能性を利用したトリガー製作戦略について述べる。
論文 参考訳(メタデータ) (2023-06-02T16:24:15Z) - Backdoor Attacks for Remote Sensing Data with Wavelet Transform [14.50261153230204]
本稿では,リモートセンシングデータに対するバックドア攻撃の系統的解析を行う。
そこで本研究では, 有害画像にトリガ画像を注入することで, 目に見えない攻撃を可能にする新しいウェーブレット変換ベースアタック(WABA)手法を提案する。
その単純さにもかかわらず、提案手法は攻撃成功率の高い最先端のディープラーニングモデルをかなり騙すことができる。
論文 参考訳(メタデータ) (2022-11-15T10:49:49Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。