論文の概要: Stochastic Training for Side-Channel Resilient AI
- arxiv url: http://arxiv.org/abs/2506.06597v1
- Date: Sat, 07 Jun 2025 00:10:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.042999
- Title: Stochastic Training for Side-Channel Resilient AI
- Title(参考訳): サイドチャネルレジリエントAIのための確率的トレーニング
- Authors: Anuj Dubey, Aydin Aysu,
- Abstract要約: 電力と電磁放射を利用するサイドチャネル攻撃は、エッジデバイス上で訓練されたAIモデルを脅かす。
本稿では,このような脅威に対するレジリエンスを高めるための新しいトレーニング手法を提案する。
Google Coral Edge TPUの実験結果は、サイドチャネルのリークが減少し、tスコアが20,000以上のトレースよりも遅くなったことを示している。
- 参考スコア(独自算出の注目度): 5.430531937341217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The confidentiality of trained AI models on edge devices is at risk from side-channel attacks exploiting power and electromagnetic emissions. This paper proposes a novel training methodology to enhance resilience against such threats by introducing randomized and interchangeable model configurations during inference. Experimental results on Google Coral Edge TPU show a reduction in side-channel leakage and a slower increase in t-scores over 20,000 traces, demonstrating robustness against adversarial observations. The defense maintains high accuracy, with about 1% degradation in most configurations, and requires no additional hardware or software changes, making it the only applicable solution for existing Edge TPUs.
- Abstract(参考訳): エッジデバイス上での訓練済みAIモデルの機密性は、電力と電磁放射を利用したサイドチャネル攻撃によるリスクがある。
本稿では、推論中にランダム化および交換可能なモデル構成を導入することにより、このような脅威に対するレジリエンスを高めるための新しいトレーニング手法を提案する。
Google Coral Edge TPUの実験結果によると、サイドチャネルリークが減少し、tスコアが20,000以上のトレースが遅くなり、敵の観測に対する堅牢性が証明された。
ディフェンスは高い精度を維持し、ほとんどの構成では約1%の劣化があり、追加のハードウェアやソフトウェアの変更は必要とせず、既存のEdge TPUに唯一適用可能なソリューションである。
関連論文リスト
- R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - Breaking the Limits of Quantization-Aware Defenses: QADT-R for Robustness Against Patch-Based Adversarial Attacks in QNNs [3.962831477787584]
量子ニューラルネットワーク(QNN)は、モデルサイズと計算コストを削減するための有望なソリューションとして登場した。
本研究は, 量子化モデルにおいて, 逆パッチは高い転送性を有することを示す。
本稿では,QADT-R(Quantization-Aware Defense Training with Randomization)を提案する。
論文 参考訳(メタデータ) (2025-03-10T08:43:36Z) - TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models [53.91006249339802]
視覚的対人攻撃に対するCLIPの推論ロバスト性を高めるため, TAPT(Test-Time Adversarial Prompt Tuning)と呼ばれる新しい防御手法を提案する。
TAPTは、CLIPの推論プロセスを堅牢化するために、防御的バイモーダル(テキストと視覚)のプロンプトを学習するテストタイムディフェンス手法である。
我々は、ImageNetなど10のゼロショットデータセットを含む11のベンチマークデータセットに対するTAPTの有効性を評価する。
論文 参考訳(メタデータ) (2024-11-20T08:58:59Z) - Hybridizing Base-Line 2D-CNN Model with Cat Swarm Optimization for Enhanced Advanced Persistent Threat Detection [0.0]
本研究では,CNN(Convolutional Neural Networks)を2次元ベースラインモデルで活用し,最先端のCat Swarm Optimizationアルゴリズムによって拡張した革新的なアプローチを提案する。
その結果、980.4%の精度のスコアが示され、様々な攻撃段階におけるAPT検出が大幅に向上した。
論文 参考訳(メタデータ) (2024-08-30T14:11:12Z) - Adversarial Robustness of Distilled and Pruned Deep Learning-based Wireless Classifiers [0.8348593305367524]
無線信号の自動変調分類(AMC)のためのディープラーニング技術は、敵攻撃に対して脆弱である。
これはDLベースの無線システム、特にAMCのエッジアプリケーションに深刻なセキュリティ上の脅威をもたらす。
我々は、敵攻撃に対して堅牢な最適化DLモデルを開発する際の共同問題に対処する。
論文 参考訳(メタデータ) (2024-04-11T06:15:01Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - GOAT: GPU Outsourcing of Deep Learning Training With Asynchronous
Probabilistic Integrity Verification Inside Trusted Execution Environment [0.0]
Deep Neural Networks(DNN)に基づく機械学習モデルは、自動運転車から新型コロナウイルスの治療発見まで、さまざまなアプリケーションにますます導入されている。
DNNを学習するために必要な計算能力をサポートするために、専用のハードウェアサポートを備えたクラウド環境が重要なインフラストラクチャとして登場した。
これらの課題に対処する様々なアプローチが開発され、信頼できる実行環境(TEE)上に構築されている。
論文 参考訳(メタデータ) (2020-10-17T20:09:05Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。