論文の概要: Defense against ML-based Power Side-channel Attacks on DNN Accelerators with Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2312.04035v1
- Date: Thu, 7 Dec 2023 04:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 12:56:06.468876
- Title: Defense against ML-based Power Side-channel Attacks on DNN Accelerators with Adversarial Attacks
- Title(参考訳): 敵攻撃を伴うDNN加速器におけるML型パワーサイドチャネル攻撃に対する防御
- Authors: Xiaobei Yan, Chip Hong Chang, Tianwei Zhang,
- Abstract要約: AIAShieldはFPGAベースのAIアクセラレータを保護するための新しい防衛手法である。
我々は、機械学習コミュニティの卓越した敵攻撃技術を活用して、繊細なノイズを発生させる。
AIAShieldは、転送性に優れた既存のソリューションより優れている。
- 参考スコア(独自算出の注目度): 21.611341074006162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) hardware accelerators have been widely adopted to enhance the efficiency of deep learning applications. However, they also raise security concerns regarding their vulnerability to power side-channel attacks (SCA). In these attacks, the adversary exploits unintended communication channels to infer sensitive information processed by the accelerator, posing significant privacy and copyright risks to the models. Advanced machine learning algorithms are further employed to facilitate the side-channel analysis and exacerbate the privacy issue of AI accelerators. Traditional defense strategies naively inject execution noise to the runtime of AI models, which inevitably introduce large overheads. In this paper, we present AIAShield, a novel defense methodology to safeguard FPGA-based AI accelerators and mitigate model extraction threats via power-based SCAs. The key insight of AIAShield is to leverage the prominent adversarial attack technique from the machine learning community to craft delicate noise, which can significantly obfuscate the adversary's side-channel observation while incurring minimal overhead to the execution of the protected model. At the hardware level, we design a new module based on ring oscillators to achieve fine-grained noise generation. At the algorithm level, we repurpose Neural Architecture Search to worsen the adversary's extraction results. Extensive experiments on the Nvidia Deep Learning Accelerator (NVDLA) demonstrate that AIAShield outperforms existing solutions with excellent transferability.
- Abstract(参考訳): ディープラーニングアプリケーションの効率を高めるために、人工知能(AI)ハードウェアアクセラレータが広く採用されている。
しかし、彼らはまた、パワーサイドチャネルアタック(SCA)に対する脆弱性に関するセキュリティ上の懸念も提起している。
これらの攻撃において、敵は意図しない通信チャネルを利用して、アクセルによって処理された機密情報を推測し、モデルに重大なプライバシーと著作権のリスクを生じさせる。
高度な機械学習アルゴリズムは、サイドチャネル分析を容易にし、AIアクセラレーターのプライバシー問題を悪化させるためにさらに使用される。
従来の防衛戦略は、実行ノイズをAIモデルのランタイムに自然に注入し、必然的に大きなオーバーヘッドを発生させる。
本稿では、FPGAベースのAIアクセラレータを保護し、電力ベースのSCAによるモデル抽出脅威を軽減するための新しい防御手法であるIAShieldを提案する。
AIAShieldの重要な洞察は、機械学習コミュニティの卓越した敵攻撃技術を活用して繊細なノイズを発生させることである。
ハードウェアレベルでは、リング発振器をベースとした、きめ細かいノイズ発生を実現する新しいモジュールを設計する。
アルゴリズムレベルでは、ニューラルネットワークサーチを用いて敵の抽出結果を悪化させる。
Nvidia Deep Learning Accelerator(NVDLA)の大規模な実験は、AIAShieldが既存のソリューションよりも優れた転送性で優れていることを示した。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Enhancing Physical Layer Communication Security through Generative AI with Mixture of Experts [80.0638227807621]
生成人工知能(GAI)モデルは、従来のAI手法よりも優れていることを示した。
ゲート機構による予測に複数の専門家モデルを使用するMoEは、可能なソリューションを提案する。
論文 参考訳(メタデータ) (2024-05-07T11:13:17Z) - A Unified Hardware-based Threat Detector for AI Accelerators [12.96840649714218]
FPGAベースのAIアクセラレータを保護するために,UniGuardを設計する。
我々は、電力変動を捉え、教師付き機械学習モデルを訓練し、様々な種類の脅威を特定するために、タイム・トゥ・デジタル・コンバータを用いている。
論文 参考訳(メタデータ) (2023-11-28T10:55:02Z) - Generalized Power Attacks against Crypto Hardware using Long-Range Deep Learning [6.409047279789011]
GPAMは電力側チャネル解析のためのディープラーニングシステムである。
複数の暗号アルゴリズム、実装、およびサイドチャネル対策を一般化する。
ハードウェアアクセラレーションを高速化した楕円曲線のデジタル署名実装を4つのハード化してGPAMの能力を実証する。
論文 参考訳(メタデータ) (2023-06-12T17:16:26Z) - Practical Adversarial Attacks Against AI-Driven Power Allocation in a
Distributed MIMO Network [0.0]
分散マルチインプット多重出力(D-MIMO)ネットワークでは、ユーザのスペクトル効率を最適化するために電力制御が不可欠である。
深層ニューラルネットワークに基づく人工知能(AI)ソリューションが提案され、複雑性が低下する。
本研究では,悪意のあるユーザや無線ユニットから派生したターゲットAIモデルに対する脅威は,ネットワーク性能を著しく低下させる可能性があることを示す。
論文 参考訳(メタデータ) (2023-01-23T07:51:25Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Attacking Deep Learning AI Hardware with Universal Adversarial
Perturbation [0.0]
Universal Adversarial Perturbationsは、実用的なディープラーニングアプリケーションのセキュリティと整合性を著しく損なう可能性がある。
ローグ手段(例えばマルウェアやトロイの木馬)によって起動された場合、既存の対策を回避できる攻撃戦略を実証する。
論文 参考訳(メタデータ) (2021-11-18T02:54:10Z) - Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks [7.20382137043754]
強靭な物理的摂動を生成するために, 対向攻撃ネットワークアルゴリズムのクラスが提案されている。
本稿では,メムリスタクロスバーアレーをベースとした敵攻撃用ハードウェアアクセラレータを提案する。
論文 参考訳(メタデータ) (2020-08-03T21:55:41Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。