論文の概要: Adversarial Visual Robustness by Causal Intervention
- arxiv url: http://arxiv.org/abs/2106.09534v1
- Date: Thu, 17 Jun 2021 14:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:04:57.079283
- Title: Adversarial Visual Robustness by Causal Intervention
- Title(参考訳): 因果的介入による対向的視覚ロバスト性
- Authors: Kaihua Tang, Mingyuan Tao, Hanwang Zhang
- Abstract要約: 敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
- 参考スコア(独自算出の注目度): 56.766342028800445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training is the de facto most promising defense against
adversarial examples. Yet, its passive nature inevitably prevents it from being
immune to unknown attackers. To achieve a proactive defense, we need a more
fundamental understanding of adversarial examples, beyond the popular bounded
threat model. In this paper, we provide a causal viewpoint of adversarial
vulnerability: the cause is the confounder ubiquitously existing in learning,
where attackers are precisely exploiting the confounding effect. Therefore, a
fundamental solution for adversarial robustness is causal intervention. As the
confounder is unobserved in general, we propose to use the instrumental
variable that achieves intervention without the need for confounder
observation. We term our robust training method as Causal intervention by
instrumental Variable (CiiV). It has a differentiable retinotopic sampling
layer and a consistency loss, which is stable and guaranteed not to suffer from
gradient obfuscation. Extensive experiments on a wide spectrum of attackers and
settings applied in MNIST, CIFAR-10, and mini-ImageNet datasets empirically
demonstrate that CiiV is robust to adaptive attacks.
- Abstract(参考訳): 敵の訓練は、敵の例に対する最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
積極的な防御を実現するには、一般的な境界付き脅威モデルを超えて、敵の例をより基本的な理解が必要です。
本稿では,攻撃者が共犯効果を的確に活用する学習において,その原因は共創者がユビキタスに存在するという,敵対的脆弱性の因果的視点を提供する。
したがって、敵対的堅牢性に対する基本的な解決策は因果介入である。
共同設立者は一般に観察できないため、共同設立者の観察を必要とせずに介入を実現するインストゥルメンタル変数の使用を提案する。
我々は,頑健なトレーニング手法を器用変数(CiiV)による因果介入とみなす。
分離可能なレチノトピックサンプリング層と一貫性損失を有しており、安定であり、勾配難読化に悩まされないことが保証されている。
MNIST、CIFAR-10、mini-ImageNetデータセットに適用された幅広い攻撃と設定に関する広範な実験は、CiiVが適応攻撃に対して堅牢であることを実証的に実証している。
関連論文リスト
- Mitigating Adversarial Vulnerability through Causal Parameter Estimation
by Adversarial Double Machine Learning [33.18197518590706]
視覚入力に対する故意に作られた摂動から導かれる敵の例は、ディープニューラルネットワークの決定プロセスに容易に害を与える可能性がある。
本稿では,adversarial Double Machine Learning (ADML) と呼ばれる因果的アプローチを導入する。
ADMLは, 対向的摂動の因果パラメータを直接推定し, 強靭性を損なう可能性のある負の効果を緩和することができる。
論文 参考訳(メタデータ) (2023-07-14T09:51:26Z) - IDEA: Invariant Causal Defense for Graph Adversarial Robustness [44.56936472040539]
本稿では,敵対的攻撃(IDEA)に対する不変因果解法を提案する。
本手法は,ラベルの強い予測可能性と攻撃間の不変な予測可能性を有する因果的特徴を学習し,グラフの対角的堅牢性を実現することを目的とする。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Demystifying Causal Features on Adversarial Examples and Causal
Inoculation for Robust Network by Adversarial Instrumental Variable
Regression [32.727673706238086]
本稿では、因果的な観点から、敵の訓練を受けたネットワークにおける予期せぬ脆弱性を掘り下げる手法を提案する。
展開することで,不偏環境下での敵予測の因果関係を推定する。
その結果, 推定因果関係は, 正解率の正解率と高い相関関係があることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T08:18:22Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Illusory Attacks: Detectability Matters in Adversarial Attacks on
Sequential Decision-Makers [74.8408990716076]
既存の強化学習エージェントに対する観測空間攻撃は共通の弱点を有することを示す。
提案手法は, 有効かつ統計的に検出不可能な, 逐次的意思決定者に対する新たな攻撃形態である完全照準攻撃を導入する。
従来の攻撃と比較すると、R攻撃は自動で検出するのがかなり難しいことが実証されている。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Formulating Robustness Against Unforeseen Attacks [34.302333899025044]
本稿では,訓練中の防衛が想定する脅威モデルにミスマッチが存在するシナリオに焦点を当てる。
学習者が特定の"ソース"脅威モデルに対してトレーニングした場合、テスト期間中に、より強力な未知の"ターゲット"脅威モデルにロバスト性が一般化できることをいつ期待できるか?
本稿では,AT-VRを用いた対戦型トレーニングを提案し,トレーニング中の特徴抽出器の変動を低減させる。
論文 参考訳(メタデータ) (2022-04-28T21:03:36Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Towards Robustness against Unsuspicious Adversarial Examples [33.63338857434094]
本稿では,認知的サリエンスを利用した不審感のモデル化手法を提案する。
我々は、分類器に対する非サービエンス保存二重摂動攻撃を計算した。
両摂動攻撃による対人訓練は、最先端の堅牢な学習手法よりも、これらに対して堅牢な分類器が得られることを示す。
論文 参考訳(メタデータ) (2020-05-08T20:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。