論文の概要: Gradient Norm-based Fine-Tuning for Backdoor Defense in Automatic Speech Recognition
- arxiv url: http://arxiv.org/abs/2502.01152v1
- Date: Mon, 03 Feb 2025 08:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:52:23.469879
- Title: Gradient Norm-based Fine-Tuning for Backdoor Defense in Automatic Speech Recognition
- Title(参考訳): 音声認識におけるバックドアディフェンスのためのグラディエントノルムを用いたファインチューニング
- Authors: Nanjun Zhou, Weilin Lin, Li Liu,
- Abstract要約: 本稿では,音声領域における攻撃に対する新たな防御戦略を提案する。
傾斜ノルム正規化を組み込むことでバックドアモデルの微調整を行い、バックドアニューロンの弱化と縮小を図る。
この研究は、オーディオ領域におけるバックドア攻撃に対して、初めて専門的で効果的な防御である。
- 参考スコア(独自算出の注目度): 5.698274162994769
- License:
- Abstract: Backdoor attacks have posed a significant threat to the security of deep neural networks (DNNs). Despite considerable strides in developing defenses against backdoor attacks in the visual domain, the specialized defenses for the audio domain remain empty. Furthermore, the defenses adapted from the visual to audio domain demonstrate limited effectiveness. To fill this gap, we propose Gradient Norm-based FineTuning (GN-FT), a novel defense strategy against the attacks in the audio domain, based on the observation from the corresponding backdoored models. Specifically, we first empirically find that the backdoored neurons exhibit greater gradient values compared to other neurons, while clean neurons stay the lowest. On this basis, we fine-tune the backdoored model by incorporating the gradient norm regularization, aiming to weaken and reduce the backdoored neurons. We further approximate the loss computation for lower implementation costs. Extensive experiments on two speech recognition datasets across five models demonstrate the superior performance of our proposed method. To the best of our knowledge, this work is the first specialized and effective defense against backdoor attacks in the audio domain.
- Abstract(参考訳): バックドア攻撃はディープニューラルネットワーク(DNN)のセキュリティに重大な脅威をもたらしている。
視覚領域におけるバックドア攻撃に対する防御の開発にはかなりの努力があったが、オーディオ領域の特殊防御はいまだに空である。
さらに、視覚領域からオーディオ領域へ適応した防御効果は限定的な効果を示した。
このギャップを埋めるために、我々は、対応するバックドアモデルからの観測に基づいて、オーディオ領域における攻撃に対する新しい防御戦略であるグラディエントノルムベースファインタニング(GN-FT)を提案する。
具体的には、バックドアニューロンが他のニューロンよりも勾配が大きいのに対して、クリーンニューロンは最低の値を維持していることを実証的に見出した。
そこで本研究では,傾斜ノルム正規化を取り入れたバックドアモデルの微調整を行い,バックドアニューロンの弱化と縮小を図る。
さらに、実装コストの低減のための損失計算を近似する。
5つのモデルにまたがる2つの音声認識データセットの大規模な実験により,提案手法の優れた性能が示された。
我々の知る限りでは、この研究はオーディオ領域におけるバックドア攻撃に対する、初めて専門的で効果的な防御である。
関連論文リスト
- "No Matter What You Do": Purifying GNN Models via Backdoor Unlearning [33.07926413485209]
GNNのバックドア攻撃は、攻撃者がトリガーを埋め込むことでグラフデータの一部を修正したという事実にある。
GNNにおける最初のバックドア緩和手法であるGCleanerを提案する。
GCleanerは、クリーンデータのわずか1%でバックドア攻撃の成功率を10%に下げることができ、ほぼ無視できるモデル性能の低下がある。
論文 参考訳(メタデータ) (2024-10-02T06:30:49Z) - Rethinking Pruning for Backdoor Mitigation: An Optimization Perspective [19.564985801521814]
バックドアモデルの修復に,グラフニューラルネットワーク(GNN)と強化学習(RL)を併用したONP(Optimized Neuron Pruning)法を提案する。
少量のクリーンデータにより、ONPは、無視可能な性能劣化を犠牲にして、バックドアアタックによって埋め込まれたバックドアニューロンを効果的にプルークすることができる。
論文 参考訳(メタデータ) (2024-05-28T01:59:06Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Enhancing Fine-Tuning Based Backdoor Defense with Sharpness-Aware
Minimization [27.964431092997504]
良性データに基づく微調整は、バックドアモデルにおけるバックドア効果を消去するための自然な防御である。
本研究では, バックドア関連ニューロンのノルムを小さくするために, 微調整によるシャープネス認識最小化を取り入れた新しいバックドア防御パラダイムFTSAMを提案する。
論文 参考訳(メタデータ) (2023-04-24T05:13:52Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。