論文の概要: Adversarial Visual Robustness by Causal Intervention
- arxiv url: http://arxiv.org/abs/2106.09534v1
- Date: Thu, 17 Jun 2021 14:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:04:57.079283
- Title: Adversarial Visual Robustness by Causal Intervention
- Title(参考訳): 因果的介入による対向的視覚ロバスト性
- Authors: Kaihua Tang, Mingyuan Tao, Hanwang Zhang
- Abstract要約: 敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
- 参考スコア(独自算出の注目度): 56.766342028800445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training is the de facto most promising defense against
adversarial examples. Yet, its passive nature inevitably prevents it from being
immune to unknown attackers. To achieve a proactive defense, we need a more
fundamental understanding of adversarial examples, beyond the popular bounded
threat model. In this paper, we provide a causal viewpoint of adversarial
vulnerability: the cause is the confounder ubiquitously existing in learning,
where attackers are precisely exploiting the confounding effect. Therefore, a
fundamental solution for adversarial robustness is causal intervention. As the
confounder is unobserved in general, we propose to use the instrumental
variable that achieves intervention without the need for confounder
observation. We term our robust training method as Causal intervention by
instrumental Variable (CiiV). It has a differentiable retinotopic sampling
layer and a consistency loss, which is stable and guaranteed not to suffer from
gradient obfuscation. Extensive experiments on a wide spectrum of attackers and
settings applied in MNIST, CIFAR-10, and mini-ImageNet datasets empirically
demonstrate that CiiV is robust to adaptive attacks.
- Abstract(参考訳): 敵の訓練は、敵の例に対する最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
積極的な防御を実現するには、一般的な境界付き脅威モデルを超えて、敵の例をより基本的な理解が必要です。
本稿では,攻撃者が共犯効果を的確に活用する学習において,その原因は共創者がユビキタスに存在するという,敵対的脆弱性の因果的視点を提供する。
したがって、敵対的堅牢性に対する基本的な解決策は因果介入である。
共同設立者は一般に観察できないため、共同設立者の観察を必要とせずに介入を実現するインストゥルメンタル変数の使用を提案する。
我々は,頑健なトレーニング手法を器用変数(CiiV)による因果介入とみなす。
分離可能なレチノトピックサンプリング層と一貫性損失を有しており、安定であり、勾配難読化に悩まされないことが保証されている。
MNIST、CIFAR-10、mini-ImageNetデータセットに適用された幅広い攻撃と設定に関する広範な実験は、CiiVが適応攻撃に対して堅牢であることを実証的に実証している。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Mitigating Adversarial Vulnerability through Causal Parameter Estimation
by Adversarial Double Machine Learning [33.18197518590706]
視覚入力に対する故意に作られた摂動から導かれる敵の例は、ディープニューラルネットワークの決定プロセスに容易に害を与える可能性がある。
本稿では,adversarial Double Machine Learning (ADML) と呼ばれる因果的アプローチを導入する。
ADMLは, 対向的摂動の因果パラメータを直接推定し, 強靭性を損なう可能性のある負の効果を緩和することができる。
論文 参考訳(メタデータ) (2023-07-14T09:51:26Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Demystifying Causal Features on Adversarial Examples and Causal
Inoculation for Robust Network by Adversarial Instrumental Variable
Regression [32.727673706238086]
本稿では、因果的な観点から、敵の訓練を受けたネットワークにおける予期せぬ脆弱性を掘り下げる手法を提案する。
展開することで,不偏環境下での敵予測の因果関係を推定する。
その結果, 推定因果関係は, 正解率の正解率と高い相関関係があることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T08:18:22Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Formulating Robustness Against Unforeseen Attacks [34.302333899025044]
本稿では,訓練中の防衛が想定する脅威モデルにミスマッチが存在するシナリオに焦点を当てる。
学習者が特定の"ソース"脅威モデルに対してトレーニングした場合、テスト期間中に、より強力な未知の"ターゲット"脅威モデルにロバスト性が一般化できることをいつ期待できるか?
本稿では,AT-VRを用いた対戦型トレーニングを提案し,トレーニング中の特徴抽出器の変動を低減させる。
論文 参考訳(メタデータ) (2022-04-28T21:03:36Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Towards Robustness against Unsuspicious Adversarial Examples [33.63338857434094]
本稿では,認知的サリエンスを利用した不審感のモデル化手法を提案する。
我々は、分類器に対する非サービエンス保存二重摂動攻撃を計算した。
両摂動攻撃による対人訓練は、最先端の堅牢な学習手法よりも、これらに対して堅牢な分類器が得られることを示す。
論文 参考訳(メタデータ) (2020-05-08T20:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。