論文の概要: Trans-defense: Transformer-based Denoiser for Adversarial Defense with Spatial-Frequency Domain Representation
- arxiv url: http://arxiv.org/abs/2510.27245v1
- Date: Fri, 31 Oct 2025 07:29:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.018812
- Title: Trans-defense: Transformer-based Denoiser for Adversarial Defense with Spatial-Frequency Domain Representation
- Title(参考訳): Trans-defense: Transformer-based Denoiser for Adversarial Defense with Space-Frequency Domain Representation
- Authors: Alik Pramanick, Mayank Bansal, Utkarsh Srivastava, Suklav Ghosh, Arijit Sur,
- Abstract要約: ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱であり、セキュリティクリティカルなシステムでの応用を制限する。
本稿では,攻撃に対処するための2段階の訓練手法を提案する。まず,Denoising Networkを訓練し,次に,Deep Classifierモデルを提案する。
本稿では,空間領域と周波数領域の両アプローチを統合して,画像に対する敵対的攻撃を防御する新しいデノベーション戦略を提案する。
- 参考スコア(独自算出の注目度): 11.290034765506816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent times, deep neural networks (DNNs) have been successfully adopted for various applications. Despite their notable achievements, it has become evident that DNNs are vulnerable to sophisticated adversarial attacks, restricting their applications in security-critical systems. In this paper, we present two-phase training methods to tackle the attack: first, training the denoising network, and second, the deep classifier model. We propose a novel denoising strategy that integrates both spatial and frequency domain approaches to defend against adversarial attacks on images. Our analysis reveals that high-frequency components of attacked images are more severely corrupted compared to their lower-frequency counterparts. To address this, we leverage Discrete Wavelet Transform (DWT) for frequency analysis and develop a denoising network that combines spatial image features with wavelets through a transformer layer. Next, we retrain the classifier using the denoised images, which enhances the classifier's robustness against adversarial attacks. Experimental results across the MNIST, CIFAR-10, and Fashion-MNIST datasets reveal that the proposed method remarkably elevates classification accuracy, substantially exceeding the performance by utilizing a denoising network and adversarial training approaches. The code is available at https://github.com/Mayank94/Trans-Defense.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)は様々な用途に採用されている。
彼らの顕著な成果にもかかわらず、DNNは高度な敵攻撃に対して脆弱であり、セキュリティクリティカルなシステムにおける彼らのアプリケーションを制限することが明らかになっている。
本稿では,攻撃に対処するための2段階の訓練手法を提案する。まず,Denoising Networkを訓練し,次に,Deep Classifier Modelを提案する。
本稿では,空間領域と周波数領域の両アプローチを統合して,画像に対する敵対的攻撃を防御する新しいデノベーション戦略を提案する。
解析の結果,攻撃画像の高周波成分は,低周波成分に比べて著しく劣化していることが明らかとなった。
これを解決するために、周波数解析に離散ウェーブレット変換(DWT)を利用し、空間像特徴とウェーブレットを変換器層を通して結合する復調ネットワークを開発する。
次に、識別画像を用いて分類器を再訓練し、敵攻撃に対する分類器の堅牢性を高める。
MNIST, CIFAR-10, およびFashion-MNISTデータセットを用いた実験結果から, 提案手法は分類精度を著しく高め, デノナイジングネットワークと対向訓練アプローチを用いて性能を大幅に上回っていることが明らかとなった。
コードはhttps://github.com/Mayank94/Trans-Defense.comで公開されている。
関連論文リスト
- VQUNet: Vector Quantization U-Net for Defending Adversarial Atacks by Regularizing Unwanted Noise [0.5755004576310334]
本稿では,新たなノイズ低減手法であるベクトル量子化U-Net(VQUNet)を導入し,対向雑音を低減し,高忠実度でデータを再構成する。
VQUNetは、ノイズ低減とデータ再構成の両方のためのマルチスケール階層構造を通して、離散潜在表現学習を特徴とする。
これは、Fashion-MNISTとCIFAR10データセットの両方に対する様々な敵攻撃の下で、最先端のノイズ低減ベースの防衛手法より優れている。
論文 参考訳(メタデータ) (2024-06-05T10:10:03Z) - Robust and Efficient Adversarial Defense in SNNs via Image Purification and Joint Detection [4.8687338715585415]
Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T00:57:06Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image Transformation [94.30136898739448]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - TensorShield: Tensor-based Defense Against Adversarial Attacks on Images [7.080154188969453]
近年の研究では、ディープニューラルネットワーク(DNN)のような機械学習アプローチが、敵の攻撃によって簡単に騙されることが示されている。
本稿では,テンソル分解法を前処理のステップとして利用して,高頻度摂動を著しく排除できる画像の低ランク近似を求める。
論文 参考訳(メタデータ) (2020-02-18T00:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。