論文の概要: Certified Causal Defense with Generalizable Robustness
- arxiv url: http://arxiv.org/abs/2408.15451v1
- Date: Wed, 28 Aug 2024 00:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 17:32:58.792983
- Title: Certified Causal Defense with Generalizable Robustness
- Title(参考訳): 汎用ロバスト性を有する認証因果防御
- Authors: Yiran Qiao, Yu Yin, Chen Chen, Jing Ma,
- Abstract要約: 本稿では,認証防衛における一般化問題に因果的視点を取り入れた新しい認証防衛フレームワークGLEANを提案する。
本フレームワークは,因果関係と入力とラベル間の素因果関係を乱すために,認証因果関係学習コンポーネントを統合する。
そこで我々は,潜在因果的要因に対する敵対的攻撃に対処するために,因果的に認証された防衛戦略を設計する。
- 参考スコア(独自算出の注目度): 14.238441767523602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While machine learning models have proven effective across various scenarios, it is widely acknowledged that many models are vulnerable to adversarial attacks. Recently, there have emerged numerous efforts in adversarial defense. Among them, certified defense is well known for its theoretical guarantees against arbitrary adversarial perturbations on input within a certain range (e.g., $l_2$ ball). However, most existing works in this line struggle to generalize their certified robustness in other data domains with distribution shifts. This issue is rooted in the difficulty of eliminating the negative impact of spurious correlations on robustness in different domains. To address this problem, in this work, we propose a novel certified defense framework GLEAN, which incorporates a causal perspective into the generalization problem in certified defense. More specifically, our framework integrates a certifiable causal factor learning component to disentangle the causal relations and spurious correlations between input and label, and thereby exclude the negative effect of spurious correlations on defense. On top of that, we design a causally certified defense strategy to handle adversarial attacks on latent causal factors. In this way, our framework is not only robust against malicious noises on data in the training distribution but also can generalize its robustness across domains with distribution shifts. Extensive experiments on benchmark datasets validate the superiority of our framework in certified robustness generalization in different data domains. Code is available in the supplementary materials.
- Abstract(参考訳): 機械学習モデルは様々なシナリオで有効であることが証明されているが、多くのモデルが敵攻撃に弱いことが広く認識されている。
近年、敵防衛への取り組みが盛んに行われている。
その中でも認証された防御は、ある範囲(例えば、$l_2$ボール)の入力に対する任意の敵の摂動に対する理論的保証で知られている。
しかし、このラインの既存の作業のほとんどは、分散シフトのある他のデータ領域における認証された堅牢性を一般化するのに苦労している。
この問題は、異なる領域のロバスト性に対する突発的相関の負の影響を排除することの難しさに根ざしている。
この問題に対処するため,本研究では,認証防衛における一般化問題に因果的視点を取り入れた,新しい認証防衛フレームワークであるGLEANを提案する。
より具体的には、我々のフレームワークは、認証因果関係学習コンポーネントを統合して、入力とラベルの因果関係と突発的相関を解き、したがって、突発的相関が防御に与える影響を排除している。
そこで我々は,潜在因果的要因に対する敵対的攻撃に対処するために,因果的に認証された防衛戦略を設計する。
このように、我々のフレームワークは、トレーニングディストリビューションのデータに対する悪意のあるノイズに対して堅牢であるだけでなく、分散シフトを伴うドメイン間での堅牢性も一般化することができる。
ベンチマークデータセットの大規模な実験は、異なるデータ領域における信頼性の高いロバストネスの一般化において、我々のフレームワークの優位性を検証する。
コードは補足資料で入手できる。
関連論文リスト
- FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Theoretically Principled Trade-off for Stateful Defenses against
Query-Based Black-Box Attacks [26.905553663353825]
我々は,ステートフルディフェンスに対する検出と偽陽性率のトレードオフを理論的に評価する。
このトレードオフがブラックボックス攻撃の収束に与える影響を分析する。
論文 参考訳(メタデータ) (2023-07-30T22:31:01Z) - How robust accuracy suffers from certified training with convex
relaxations [12.292092677396347]
アドリア攻撃は、安全クリティカルなアプリケーションに最先端の分類器を配置する上で重大な脅威となる。
この問題に対処するために、実証的な防御と認定された防御という2つの方法のクラスが登場した。
複数のコンピュータビジョンタスクにおいて、これらの2つの堅牢なトレーニングパラダイムの標準および堅牢なエラーを体系的に比較する。
論文 参考訳(メタデータ) (2023-06-12T09:45:21Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Improving the Certified Robustness of Neural Networks via Consistency
Regularization [25.42238710803711]
敵の例によるニューラルネットワークの堅牢性を改善するために,様々な防御手法が提案されている。
これらの証明可能な防御メソッドのほとんどは、トレーニングプロセス中にすべての例を平等に扱う。
本論文では, 誤分類例による不整合を探究し, 誤分類例をより有効活用するために, 新たな整合性正規化項を加える。
論文 参考訳(メタデータ) (2020-12-24T05:00:50Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。