論文の概要: Aliasing is a Driver of Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2212.11760v1
- Date: Thu, 22 Dec 2022 14:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 13:50:30.680975
- Title: Aliasing is a Driver of Adversarial Attacks
- Title(参考訳): Aliasingは敵攻撃の先駆者だ
- Authors: Adri\'an Rodr\'iguez-Mu\~noz, Antonio Torralba
- Abstract要約: 本稿では, 対向摂動の存在は, ニューラルネットワークのエイリアスに起因しているという仮説を考察する。
我々の最終的な目標は、説明可能な非訓練型構造変化のみを用いて、敵攻撃に対する堅牢性を高めることである。
実験の結果,抗エイリアスと対人攻撃の関連性は良好であった。
- 参考スコア(独自算出の注目度): 35.262520934751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aliasing is a highly important concept in signal processing, as careful
consideration of resolution changes is essential in ensuring transmission and
processing quality of audio, image, and video. Despite this, up until recently
aliasing has received very little consideration in Deep Learning, with all
common architectures carelessly sub-sampling without considering aliasing
effects. In this work, we investigate the hypothesis that the existence of
adversarial perturbations is due in part to aliasing in neural networks. Our
ultimate goal is to increase robustness against adversarial attacks using
explainable, non-trained, structural changes only, derived from aliasing first
principles. Our contributions are the following. First, we establish a
sufficient condition for no aliasing for general image transformations. Next,
we study sources of aliasing in common neural network layers, and derive simple
modifications from first principles to eliminate or reduce it. Lastly, our
experimental results show a solid link between anti-aliasing and adversarial
attacks. Simply reducing aliasing already results in more robust classifiers,
and combining anti-aliasing with robust training out-performs solo robust
training on $L_2$ attacks with none or minimal losses in performance on
$L_{\infty}$ attacks.
- Abstract(参考訳): エイリアシングは信号処理において非常に重要な概念であり、オーディオ、画像、ビデオの伝送と処理の品質を確保するには解像度の変更を慎重に考慮することが不可欠である。
それにもかかわらず、最近まで、AliasingはDeep Learningにおいてほとんど考慮されておらず、すべての共通アーキテクチャはエイリアス効果を考慮せずに不注意にサブサンプリングしている。
本研究では, ニューラルネットワークのエイリアス化に起因して, 対向摂動の存在が原因であるという仮説を考察する。
我々の最終的な目標は、第一原理のエイリアスから派生した説明可能な非訓練的構造変化のみを用いて、敵攻撃に対する堅牢性を高めることである。
私たちの貢献は以下のとおりです。
まず、一般画像変換のエイリアスを行わないための十分な条件を確立する。
次に,一般的なニューラルネットワーク層におけるエイリアスの発生源を調査し,その除去や削減のための第一原理からの簡単な修正を導出する。
最後に,本研究は抗エイリアス攻撃と逆境攻撃との強い関連を示した。
単にエイリアスを減らすだけで、より堅牢な分類器が実現し、ロバストなトレーニングとアンチエイリアスを組み合わせることで、$L2$攻撃における単独のロバストトレーニングと、$L_{\infty}$攻撃におけるパフォーマンスの損失が最小限である。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Fix your downsampling ASAP! Be natively more robust via Aliasing and
Spectral Artifact free Pooling [11.72025865314187]
畳み込みニューラルネットワークは、画像に一連の畳み込み、正規化、非線形性、およびダウンサンプリング操作をエンコードする。
以前の研究では、サンプリング中のわずかなミスでさえエイリアスに繋がる可能性があることが、ネットワークの堅牢性の欠如に直接起因していることが示された。
本稿では,アーティファクトを含まないアーティファクト・プール・ショートASAPを提案する。
論文 参考訳(メタデータ) (2023-07-19T07:47:23Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Stabilizing Off-Policy Deep Reinforcement Learning from Pixels [9.998078491879145]
ピクセル観測から学んだオフ政治強化は、非常に不安定である。
これらの不安定性は,畳み込みエンコーダと低次報酬を用いた時間差学習によって生じることを示す。
本稿では, エンコーダの勾配に適応的な正規化を提供する手法であるA-LIXを提案する。
論文 参考訳(メタデータ) (2022-07-03T08:52:40Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - How Convolutional Neural Networks Deal with Aliasing [0.0]
画像分類器cnnは、原則としてアンチエイリアスフィルタを実装できるが、中間層でエイリアスが発生するのを防げないことを示す。
まず,入力時の発振を識別するCNNの能力を評価し,中間チャネルの冗長性がタスクの成功に重要な役割を担っていることを示す。
第2に、画像分類器CNNは、原則として、アンチエイリアスフィルタを実装することができるが、中間層でエイリアスを行うのを妨げないことを示す。
論文 参考訳(メタデータ) (2021-02-15T18:52:47Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。