論文の概要: Encoding Power Traces as Images for Efficient Side-Channel Analysis
- arxiv url: http://arxiv.org/abs/2004.11015v2
- Date: Mon, 18 May 2020 08:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 12:45:46.760913
- Title: Encoding Power Traces as Images for Efficient Side-Channel Analysis
- Title(参考訳): サイドチャネル解析のための画像としてのパワートレースの符号化
- Authors: Benjamin Hettwer (1 and 2), Tobias Horn (3), Stefan Gehrer (4) and Tim
G\"uneysu (2) ((1) Robert Bosch GmbH, Corporate Sector Research, Renningen,
Germany, (2) Horst G\"ortz Institute for IT-Security, Ruhr University Bochum,
Germany,(3) Esslingen University of Applied Sciences, Esslingen, Germany, (4)
Robert Bosch LLC, Corporate Sector Research, Pittsburgh, USA)
- Abstract要約: サイドチャネル攻撃(SCA)は、暗号アルゴリズムの実装を攻撃するための強力な方法である。
ディープラーニング(DL)メソッドは、SCAを単純化し、同時に攻撃を成功させるために必要なサイドチャネルトレースの量を削減します。
本稿では,1次元トレースを2次元画像として解釈する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Side-Channel Attacks (SCAs) are a powerful method to attack implementations
of cryptographic algorithms. State-of-the-art techniques such as template
attacks and stochastic models usually require a lot of manual preprocessing and
feature extraction by the attacker. Deep Learning (DL) methods have been
introduced to simplify SCAs and simultaneously lowering the amount of required
side-channel traces for a successful attack. However, the general success of DL
is largely driven by their capability to classify images, a field in which they
easily outperform humans. In this paper, we present a novel technique to
interpret 1D traces as 2D images. We show and compare several techniques to
transform power traces into images, and apply these on different
implementations of the Advanced Encryption Standard (AES). By allowing the
neural network to interpret the trace as an image, we are able to significantly
reduce the number of required attack traces for a correct key guess.We also
demonstrate that the attack efficiency can be improved by using multiple 2D
images in the depth channel as an input. Furthermore, by applying image-based
data augmentation, we show how the number of profiling traces is reduced by a
factor of 50 while simultaneously enhancing the attack performance. This is a
crucial improvement, as the amount of traces that can be recorded by an
attacker is often very limited in real-life applications.
- Abstract(参考訳): サイドチャネル攻撃(SCA)は、暗号アルゴリズムの実装を攻撃するための強力な方法である。
テンプレート攻撃や確率モデルのような最先端技術は、通常、多くの手動前処理と攻撃者による特徴抽出を必要とする。
ディープラーニング(DL)メソッドは、SCAを単純化し、同時に攻撃を成功させるために必要なサイドチャネルトレースの量を削減します。
しかしながら、dlの一般的な成功は、イメージを分類する能力、すなわち、人間よりも容易に優れる分野によって引き起こされる。
本稿では,1次元トレースを2次元画像として解釈する新しい手法を提案する。
本稿では,画像にパワートレースを変換する技術をいくつか紹介し,これらをAES(Advanced Encryption Standard)の異なる実装に適用する。
ニューラルネットワークが画像としてトレースを解釈することで、正確な鍵推定に必要な攻撃トレース数を著しく削減できると同時に、深度チャネル内の複数の2Dイメージを入力として使用することにより、攻撃効率を向上できることを示す。
さらに,画像に基づくデータ拡張を適用することにより,攻撃性能を同時に向上しつつ,プロファイリングトレースの数が50倍に減少することを示す。
実際のアプリケーションでは、攻撃者が記録できるトレースの量は極めて限られているため、これは重要な改善である。
関連論文リスト
- AICAttack: Adversarial Image Captioning Attack with Attention-Based Optimization [13.045125782574306]
本稿では,画像上の微妙な摂動によって画像キャプションモデルを攻撃する新たな攻撃戦略であるAICAttackを提案する。
ブラックボックス攻撃シナリオ内で動作するため、我々のアルゴリズムはターゲットモデルのアーキテクチャ、パラメータ、勾配情報へのアクセスを必要としない。
複数の犠牲者モデルに対するベンチマークデータセットの広範な実験を通じて,AICAttackの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T08:27:23Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Two-branch Multi-scale Deep Neural Network for Generalized Document
Recapture Attack Detection [25.88454144842164]
画像再キャプチャー攻撃は、ある法医学的痕跡を消去するための効果的な画像操作方法であり、個人文書イメージをターゲットとすると、電子商取引やその他のウェブアプリケーションのセキュリティに大きな脅威をもたらす。
本稿では,周波数フィルタバンクとマルチスケールクロスアテンション融合モジュールを設計した,より汎用化された再キャプチャアーティファクトをマイニングすることで,新しい2分岐ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T06:57:11Z) - A Black-Box Attack on Optical Character Recognition Systems [0.0]
敵対的機械学習は、ディープラーニングモデルの脆弱性を示す新興分野である。
本稿では,バイナリ画像分類器上での効果的なコンビネータブラックボックス攻撃法を提案する。
2つの異なるデータセットと3つの分類ネットワーク上での攻撃手法の有効性を検証し,その性能を実証した。
論文 参考訳(メタデータ) (2022-08-30T14:36:27Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - An Eye for an Eye: Defending against Gradient-based Attacks with
Gradients [24.845539113785552]
勾配に基づく敵攻撃は高い成功率を示している。
この勾配は、敵の攻撃から防御するための強力な武器として利用することもできる。
勾配図と逆画像の両方を入力として使用することにより、逆画像の復元を行う2ストリーム復元ネットワーク(TRN)を提案する。
論文 参考訳(メタデータ) (2022-02-02T16:22:28Z) - Masked Autoencoders Are Scalable Vision Learners [60.97703494764904]
Masked Autoencoders (MAE) は、コンピュータビジョンのためのスケーラブルな自己教師型学習システムである。
我々は入力画像のランダムなパッチを隠蔽し、欠落したピクセルを再構成する。
これら2つの設計を結合することで,大規模モデルを効率的かつ効率的にトレーニングすることが可能になります。
論文 参考訳(メタデータ) (2021-11-11T18:46:40Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Generating Image Adversarial Examples by Embedding Digital Watermarks [38.93689142953098]
本稿では,DNN(Deep Neural Network, ディープ・ニューラル・ネットワーク)モデルに対する画像逆転例を生成する,新しいデジタル透かしに基づく手法を提案する。
ホスト画像と透かし画像を選択するための効率的な機構を考案し、改良された離散ウェーブレット変換(DWT)に基づく透かしアルゴリズムを利用する。
我々のスキームは、CIFAR-10データセット上の各画像に対する攻撃を完了する平均1.17秒で、多数の敵例を効率的に生成することができる。
論文 参考訳(メタデータ) (2020-08-14T09:03:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。