論文の概要: Train to Defend: First Defense Against Cryptanalytic Neural Network Parameter Extraction Attacks
- arxiv url: http://arxiv.org/abs/2509.16546v1
- Date: Sat, 20 Sep 2025 06:05:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.848891
- Title: Train to Defend: First Defense Against Cryptanalytic Neural Network Parameter Extraction Attacks
- Title(参考訳): ニューラルネットワークパラメータ抽出攻撃に対する最初の防御
- Authors: Ashley Kurian, Aydin Aysu,
- Abstract要約: 本稿では,暗号解析パラメータ抽出攻撃に対する最初の防御機構を提案する。
私たちの重要な洞察は、これらの攻撃が成功するために必要なニューロンのユニークさを取り除くことです。
我々は、新しい抽出対応の訓練手法によりこれを達成した。
- 参考スコア(独自算出の注目度): 3.5266668043629714
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks are valuable intellectual property due to the significant computational cost, expert labor, and proprietary data involved in their development. Consequently, protecting their parameters is critical not only for maintaining a competitive advantage but also for enhancing the model's security and privacy. Prior works have demonstrated the growing capability of cryptanalytic attacks to scale to deeper models. In this paper, we present the first defense mechanism against cryptanalytic parameter extraction attacks. Our key insight is to eliminate the neuron uniqueness necessary for these attacks to succeed. We achieve this by a novel, extraction-aware training method. Specifically, we augment the standard loss function with an additional regularization term that minimizes the distance between neuron weights within a layer. Therefore, the proposed defense has zero area-delay overhead during inference. We evaluate the effectiveness of our approach in mitigating extraction attacks while analyzing the model accuracy across different architectures and datasets. When re-trained with the same model architecture, the results show that our defense incurs a marginal accuracy change of less than 1% with the modified loss function. Moreover, we present a theoretical framework to quantify the success probability of the attack. When tested comprehensively with prior attack settings, our defense demonstrated empirical success for sustained periods of extraction, whereas unprotected networks are extracted between 14 minutes to 4 hours.
- Abstract(参考訳): ニューラルネットワークは、その開発に関わる計算コスト、専門家の労働力、プロプライエタリなデータのために、貴重な知的財産である。
したがって、パラメータの保護は、競争上の優位性を維持するだけでなく、モデルのセキュリティとプライバシを高めるためにも重要である。
これまでの研究は、より深いモデルにスケールするための暗号解析攻撃の増大を実証してきた。
本稿では,暗号パラメータ抽出攻撃に対する最初の防御機構を提案する。
私たちの重要な洞察は、これらの攻撃が成功するために必要なニューロンのユニークさを取り除くことです。
我々は、新しい抽出対応の訓練手法によりこれを達成した。
具体的には、層内のニューロンの重み間の距離を最小化する追加の正規化項で標準損失関数を増強する。
したがって,提案したディフェンスは,推論中にエリア遅延オーバーヘッドがゼロとなる。
我々は,異なるアーキテクチャやデータセットのモデル精度を解析しながら,抽出攻撃を緩和する手法の有効性を評価する。
同じモデルアーキテクチャで再訓練を行った結果,修正損失関数の限界精度が1%未満であることがわかった。
さらに,攻撃成功確率を定量化する理論的枠組みを提案する。
攻撃前設定で総合的に検証すると, 防御効果は持続的な抽出期間において実証的成功を収めたのに対し, 未保護ネットワークは14分から4時間の間に抽出された。
関連論文リスト
- Neural Antidote: Class-Wise Prompt Tuning for Purifying Backdoors in CLIP [51.04452017089568]
CBPT(Class-wise Backdoor Prompt Tuning)は、テキストプロンプトでCLIPを間接的に浄化する効率的な防御機構である。
CBPTは、モデルユーティリティを保持しながら、バックドアの脅威を著しく軽減する。
論文 参考訳(メタデータ) (2025-02-26T16:25:15Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Unified Neural Backdoor Removal with Only Few Clean Samples through Unlearning and Relearning [4.623498459985644]
ULRL(UnLearn and ReLearn for backdoor removal)を提案する。
提案手法はまず,ネットワークの損失を小さなクリーンデータセット上で意図的に最大化する未学習フェーズを用いる。
再学習段階では、これらの疑わしいニューロンは、標的の再初期化とコサイン類似性規則化を用いて再分類される。
論文 参考訳(メタデータ) (2024-05-23T16:49:09Z) - Enhancing Fine-Tuning Based Backdoor Defense with Sharpness-Aware
Minimization [27.964431092997504]
良性データに基づく微調整は、バックドアモデルにおけるバックドア効果を消去するための自然な防御である。
本研究では, バックドア関連ニューロンのノルムを小さくするために, 微調整によるシャープネス認識最小化を取り入れた新しいバックドア防御パラダイムFTSAMを提案する。
論文 参考訳(メタデータ) (2023-04-24T05:13:52Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Membership Inference Attacks and Defenses in Neural Network Pruning [5.856147967309101]
ニューラルネットワークのプルーニングにおいて、プライバシリスクを初めて分析する。
具体的には,ニューラルネットワークのプルーニングがデータプライバシのトレーニングに与える影響について検討する。
本稿では,予測分岐を緩和し,刈り込みプロセスを保護するための新しい防御機構を提案する。
論文 参考訳(メタデータ) (2022-02-07T16:31:53Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。