論文の概要: Double Strike: Breaking Approximation-Based Side-Channel Countermeasures for DNNs
- arxiv url: http://arxiv.org/abs/2601.08698v1
- Date: Tue, 13 Jan 2026 16:24:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.283338
- Title: Double Strike: Breaking Approximation-Based Side-Channel Countermeasures for DNNs
- Title(参考訳): ダブルストライク:DNNの近似に基づくサイドチャネル対策
- Authors: Lorenzo Casalino, Maria Méndez Real, Jean-Christophe Prévotet, Rubén Salvador,
- Abstract要約: 本稿では,MACPRUNING対策に固有の制御-フロー依存性を活用するための前処理手法について述べる。
マイクロアーキテクチャーの漏洩が我々の方法論の有効性を向上し、標的となる非重要重量の最大100%を回収できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs), which support services such as driving assistants and medical diagnoses, undergo lengthy and expensive training procedures. Therefore, the training's outcome - the DNN weights - represents a significant intellectual property asset to protect. Side-channel analysis (SCA) has recently appeared as an effective approach to recover this confidential asset from DNN implementations. In response, researchers have proposed to defend DNN implementations through classic side-channel countermeasures, at the cost of higher energy consumption, inference time, and resource utilisation. Following a different approach, Ding et al. (HOST'25) introduced MACPRUNING, a novel SCA countermeasure based on pruning, a performance-oriented Approximate Computing technique: at inference time, the implementation randomly prunes (or skips) non-important weights (i.e., with low contribution to the DNN's accuracy) of the first layer, exponentially increasing the side-channel resilience of the protected DNN implementation. However, the original security analysis of MACPRUNING did not consider a control-flow dependency intrinsic to the countermeasure design. This dependency may allow an attacker to circumvent MACPRUNING and recover the weights important to the DNN's accuracy. This paper describes a preprocessing methodology to exploit the above-mentioned control-flow dependency. Through practical experiments on a Chipwhisperer-Lite running a MACPRUNING-protected Multi-Layer Perceptron, we target the first 8 weights of each neuron and recover 96% of the important weights, demonstrating the drastic reduction in security of the protected implementation. Moreover, we show how microarchitectural leakage improves the effectiveness of our methodology, even allowing for the recovery of up to 100% of the targeted non-important weights. Lastly, by adapting our methodology [continue in pdf].
- Abstract(参考訳): 運転補助や診断などのサービスをサポートするディープニューラルネットワーク(DNN)は、長く高価なトレーニング手順を実行している。
そのため、訓練の結果であるDNNの重みは、保護すべき重要な知的財産資産を表している。
サイドチャネル解析(SCA)は、最近、DNN実装からこの機密資産を回収するための効果的なアプローチとして現れている。
これに対し、研究者らは、エネルギー消費、推論時間、資源利用のコストを犠牲にして、古典的なサイドチャネル対策を通じてDNNの実装を守ることを提案した。
Ding et al (HOST'25) は、Pruningに基づく新しい SCA 対策である MACPRUNING を導入した。これはパフォーマンス指向の近似コンピューティング技術である: 推論時に、実装は第一層の非重要重量(すなわち、DNNの精度に低い貢献)をランダムにプーン(あるいはスキップ)し、保護されたDNN実装のサイドチャネルのレジリエンスを指数関数的に増加させる。
しかし、MACPRUNINGの当初のセキュリティ分析では、対策設計に固有の制御-フロー依存性は考慮されなかった。
この依存関係により、攻撃者はMACPRUNINGを回避し、DNNの精度に重要な重みを回復することができる。
本稿では、上記の制御-フロー依存性を利用する前処理手法について述べる。
MACPRUNINGで保護されたMulti-Layer Perceptronを動作させるChipwhisperer-Liteの実用実験を通じて、各ニューロンの最初の8つの重みを目標とし、重要な重みの96%を回収し、保護された実装のセキュリティの大幅な低下を示す。
さらに,マイクロアーキテクチャの漏洩が我々の方法論の有効性を向上し,目標とする非重要重量の最大100%を回収できることを示す。
最後に、方法論[pdfでの継続]を適用することで。
関連論文リスト
- MACPruning: Dynamic Operation Pruning to Mitigate Side-Channel DNN Model Extraction [3.203976017867677]
我々は、DMAベースのパラメータ抽出攻撃に対する新しい軽量防御であるMACPruningを紹介する。
エッジデバイス上でのDNNのための各種データセット上でのMACP実行の総合的なセキュリティ解析を行う。
評価の結果,MACP実行はモデル精度と無視可能な計算オーバーヘッドに最小限の影響を伴って,EMリークを効果的に低減することが示された。
論文 参考訳(メタデータ) (2025-02-20T20:14:53Z) - Post-Training Overfitting Mitigation in DNN Classifiers [31.513866929577336]
学習後MMベースの正規化は,クラス不均衡やオーバートレーニングによる非マチュラスなオーバーフィッティングを著しく軽減することを示す。
攻撃に対する弾力性はあるが、クリーン(無攻撃)な一般化を損なう敵の訓練とは異なり、敵の学習に起因したアプローチを実証する。
論文 参考訳(メタデータ) (2023-09-28T20:16:24Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - Boosting Adversarial Robustness From The Perspective of Effective Margin
Regularization [58.641705224371876]
ディープニューラルネットワーク(DNN)の敵対的脆弱性は、ここ数年で積極的に研究されている。
本稿では,クロスエントロピー損失のスケール変動特性について検討する。
提案した有効マージン正則化(EMR)は,大きな有効マージンを学習し,標準トレーニングと対向トレーニングの両方において対向的ロバスト性を高めることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:16:56Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。