論文の概要: Causal Information Bottleneck Boosts Adversarial Robustness of Deep
Neural Network
- arxiv url: http://arxiv.org/abs/2210.14229v1
- Date: Tue, 25 Oct 2022 12:49:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 13:36:26.070509
- Title: Causal Information Bottleneck Boosts Adversarial Robustness of Deep
Neural Network
- Title(参考訳): Causal Information Bottleneckはディープニューラルネットワークの対向ロバスト性を高める
- Authors: Huan Hua, Jun Yan, Xi Fang, Weiquan Huang, Huilin Yin and Wancheng Ge
- Abstract要約: 情報ボトルネック (IB) 法は, 深層学習における敵対的攻撃に対する有効な防御方法である。
因果推論をIBフレームワークに組み込んで、そのような問題を緩和する。
本手法は,複数の敵攻撃に対してかなりの堅牢性を示す。
- 参考スコア(独自算出の注目度): 3.819052032134146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The information bottleneck (IB) method is a feasible defense solution against
adversarial attacks in deep learning. However, this method suffers from the
spurious correlation, which leads to the limitation of its further improvement
of adversarial robustness. In this paper, we incorporate the causal inference
into the IB framework to alleviate such a problem. Specifically, we divide the
features obtained by the IB method into robust features (content information)
and non-robust features (style information) via the instrumental variables to
estimate the causal effects. With the utilization of such a framework, the
influence of non-robust features could be mitigated to strengthen the
adversarial robustness. We make an analysis of the effectiveness of our
proposed method. The extensive experiments in MNIST, FashionMNIST, and CIFAR-10
show that our method exhibits the considerable robustness against multiple
adversarial attacks. Our code would be released.
- Abstract(参考訳): 情報ボトルネック (IB) 法は, 深層学習における敵攻撃に対する有効な防御方法である。
しかし, この手法は, 対向ロバスト性の向上に限界をもたらす突発的な相関に悩まされている。
本稿では,因果推論をibフレームワークに組み込むことにより,この問題を軽減する。
具体的には,IB法により得られた特徴を,機器変数を介して頑健な特徴(コンテンツ情報)と非破壊的特徴(スタイル情報)に分割し,因果効果を推定する。
このような枠組みを利用することで、非破壊的特徴の影響を緩和し、敵の強靭性を強化することができる。
提案手法の有効性を分析した。
MNIST, FashionMNIST, CIFAR-10の広範囲な実験により, 本手法は複数の敵攻撃に対してかなりの堅牢性を示した。
私たちのコードはリリースされます。
関連論文リスト
- Enhancing Adversarial Transferability via Information Bottleneck Constraints [18.363276470822427]
IBTAと呼ばれるブラックボックス転送可能な敵攻撃を行うためのフレームワークを提案する。
最適化不能な相互情報に対する課題を克服するために,計算を近似するためのシンプルで効率的な相互情報低境界(MILB)を提案する。
ImageNetデータセットの実験では、IBTAとMILBの効率性とスケーラビリティがよく示されている。
論文 参考訳(メタデータ) (2024-06-08T17:25:31Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では、DBPプロセスの本質が、その堅牢性の主要な要因であると主張している。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - READ: Improving Relation Extraction from an ADversarial Perspective [33.44949503459933]
関係抽出(RE)に特化して設計された対角的学習法を提案する。
提案手法では,シーケンスレベルの摂動とトークンレベルの摂動の両方をサンプルに導入し,個別の摂動語彙を用いてエンティティとコンテキストの摂動の探索を改善する。
論文 参考訳(メタデータ) (2024-04-02T16:42:44Z) - Class Incremental Learning for Adversarial Robustness [17.06592851567578]
アドリラルトレーニングは、モデルトレーニング中の敵の例を統合して、堅牢性を高める。
直感的な対人訓練と漸進的な学習を組み合わせることで、頑健さが失われることが容易に分かる。
本稿では, 対向型とクリーン型との出力差を生かしたFPD損失を提案する。
論文 参考訳(メタデータ) (2023-12-06T04:38:02Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Mitigating Adversarial Vulnerability through Causal Parameter Estimation
by Adversarial Double Machine Learning [33.18197518590706]
視覚入力に対する故意に作られた摂動から導かれる敵の例は、ディープニューラルネットワークの決定プロセスに容易に害を与える可能性がある。
本稿では,adversarial Double Machine Learning (ADML) と呼ばれる因果的アプローチを導入する。
ADMLは, 対向的摂動の因果パラメータを直接推定し, 強靭性を損なう可能性のある負の効果を緩和することができる。
論文 参考訳(メタデータ) (2023-07-14T09:51:26Z) - Bayesian Learning with Information Gain Provably Bounds Risk for a
Robust Adversarial Defense [27.545466364906773]
敵攻撃に対して堅牢なディープニューラルネットワークモデルを学習するための新しいアルゴリズムを提案する。
本モデルでは, PGD 攻撃下での対人訓練と Adv-BNN との比較により, 強靭性は20%まで向上した。
論文 参考訳(メタデータ) (2022-12-05T03:26:08Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。