論文の概要: On the Limitations of Denoising Strategies as Adversarial Defenses
- arxiv url: http://arxiv.org/abs/2012.09384v1
- Date: Thu, 17 Dec 2020 03:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:37:07.119832
- Title: On the Limitations of Denoising Strategies as Adversarial Defenses
- Title(参考訳): 敵防衛としてのDenoising Strategieの限界について
- Authors: Zhonghan Niu, Zhaoxi Chen, Linyi Li, Yubin Yang, Bo Li, Jinfeng Yi
- Abstract要約: 機械学習モデルに対する敵対的な攻撃は 懸念を高めています
本稿では,データのデノイジングと再構成を通じて,対称変換という形での防御戦略を分析する。
実験の結果,適応的な圧縮戦略により,モデルが逆摂動を効果的に抑制できることがわかった。
- 参考スコア(独自算出の注目度): 29.73831728610021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As adversarial attacks against machine learning models have raised increasing
concerns, many denoising-based defense approaches have been proposed. In this
paper, we summarize and analyze the defense strategies in the form of symmetric
transformation via data denoising and reconstruction (denoted as $F+$ inverse
$F$, $F-IF$ Framework). In particular, we categorize these denoising strategies
from three aspects (i.e. denoising in the spatial domain, frequency domain, and
latent space, respectively). Typically, defense is performed on the entire
adversarial example, both image and perturbation are modified, making it
difficult to tell how it defends against the perturbations. To evaluate the
robustness of these denoising strategies intuitively, we directly apply them to
defend against adversarial noise itself (assuming we have obtained all of it),
which saving us from sacrificing benign accuracy. Surprisingly, our
experimental results show that even if most of the perturbations in each
dimension is eliminated, it is still difficult to obtain satisfactory
robustness. Based on the above findings and analyses, we propose the adaptive
compression strategy for different frequency bands in the feature domain to
improve the robustness. Our experiment results show that the adaptive
compression strategies enable the model to better suppress adversarial
perturbations, and improve robustness compared with existing denoising
strategies.
- Abstract(参考訳): 機械学習モデルに対する敵対的な攻撃が懸念を増す中、多くのデノワズベースの防御アプローチが提案されている。
本稿では,データのデノイジングと再構成($f+$逆$f$,$f-if$フレームワーク)による対称変換という形で防衛戦略を要約・分析する。
特に、これらの認知戦略を3つの側面(すなわち)から分類する。
空間領域、周波数領域、潜在空間においてそれぞれ雑音化される)。
通常、対向的な例で防御が行われ、画像と摂動の両方が修正され、摂動に対してどのように防御するかを判断することは困難である。
直感的にこれらの難読化戦略の頑健さを評価するため、敵の雑音自体を防御するために直接適用し、良識を犠牲にするのを防ぎます。
意外なことに、実験の結果、各次元の摂動の大部分を排除しても、満足な堅牢性を得るのは難しいことが示されている。
以上の結果と解析に基づき,ロバスト性を改善するため,特徴領域の異なる周波数帯域に対する適応圧縮戦略を提案する。
実験の結果,適応圧縮戦略は,既存手法と比較して,逆摂動の抑制やロバスト性の向上を可能にした。
関連論文リスト
- Heteroscedastic Uncertainty Estimation Framework for Unsupervised Registration [32.081258147692395]
本稿では,異種画像の不確実性推定のためのフレームワークを提案する。
教師なし登録時の不確実性の高い領域の影響を適応的に低減することができる。
提案手法は, ベースラインを常に上回り, 有意な不確実性推定を導出する。
論文 参考訳(メタデータ) (2023-12-01T01:03:06Z) - ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches [4.4100683691177816]
敵対的攻撃は、機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
パッチベースの敵攻撃に対処するための総合的な防御戦略である外乱検出・次元削減(ODDR)を提案する。
提案手法は,逆パッチに対応する入力特徴を外れ値として同定できるという観測に基づいている。
論文 参考訳(メタデータ) (2023-11-20T11:08:06Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - From a Fourier-Domain Perspective on Adversarial Examples to a Wiener
Filter Defense for Semantic Segmentation [27.04820989579924]
ディープ・ニューラル・ネットワークは 敵の摂動に対して 強固ではない
本研究では,周波数領域の観点から,逆問題について検討する。
本稿では,よく知られたWienerフィルタに基づく対角防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-02T22:06:04Z) - Adversarial attacks on audio source separation [26.717340178640498]
音源分離問題に対する様々な逆攻撃手法を再構成する。
そこで本研究では,非知覚的対向雑音を得るための簡易かつ効果的な正則化法を提案する。
また,ブラックボックス攻撃に対するソース分離モデルの堅牢性を示す。
論文 参考訳(メタデータ) (2020-10-07T05:02:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。