論文の概要: IDEA: Invariant Causal Defense for Graph Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2305.15792v1
- Date: Thu, 25 May 2023 07:16:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 16:46:10.053493
- Title: IDEA: Invariant Causal Defense for Graph Adversarial Robustness
- Title(参考訳): IDEA: グラフ反転ロバストネスのための不変因果防御
- Authors: Shuchang Tao, Qi Cao, Huawei Shen, Yunfan Wu, Bingbing Xu, Xueqi Cheng
- Abstract要約: 本稿では,敵対的攻撃(IDEA)に対する不変因果解法を提案する。
本手法は,ラベルの強い予測可能性と攻撃間の不変な予測可能性を有する因果的特徴を学習し,グラフの対角的堅牢性を実現することを目的とする。
- 参考スコア(独自算出の注目度): 44.56936472040539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have achieved remarkable success in various
tasks, however, their vulnerability to adversarial attacks raises concerns for
the real-world applications. Existing defense methods can resist some attacks,
but suffer unbearable performance degradation under other unknown attacks. This
is due to their reliance on either limited observed adversarial examples to
optimize (adversarial training) or specific heuristics to alter graph or model
structures (graph purification or robust aggregation). In this paper, we
propose an Invariant causal DEfense method against adversarial Attacks (IDEA),
providing a new perspective to address this issue. The method aims to learn
causal features that possess strong predictability for labels and invariant
predictability across attacks, to achieve graph adversarial robustness. Through
modeling and analyzing the causal relationships in graph adversarial attacks,
we design two invariance objectives to learn the causal features. Extensive
experiments demonstrate that our IDEA significantly outperforms all the
baselines under both poisoning and evasion attacks on five benchmark datasets,
highlighting the strong and invariant predictability of IDEA. The
implementation of IDEA is available at
https://anonymous.4open.science/r/IDEA_repo-666B.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は様々なタスクで顕著な成功を収めているが、その攻撃に対する脆弱性は現実世界のアプリケーションに対する懸念を生じさせている。
既存の防御方法はいくつかの攻撃に抵抗するが、他の未知の攻撃では性能が低下する。
これは、グラフやモデル構造(グラフの精製やロバストアグリゲーション)を変更するための特定のヒューリスティックを最適化するために、限定された観察された敵の例に依存するためである。
本稿では、敵攻撃(IDEA)に対する不変因果解法を提案し、この問題に対処するための新たな視点を提供する。
本手法は,ラベルの強い予測可能性と攻撃間の不変な予測可能性を有する因果的特徴を学習し,グラフの対角的堅牢性を実現することを目的とする。
グラフ敵攻撃における因果関係のモデル化と分析を通じて,因果的特徴を学習するための2つの非分散目標を設計する。
大規模な実験により、IDEAは5つのベンチマークデータセットに対して、毒性攻撃と回避攻撃の両方の下で、すべてのベースラインを著しく上回り、IDEAの強力で不変な予測可能性を強調します。
IDEAの実装はhttps://anonymous.4open.science/r/IDEA_repo-666Bで公開されている。
関連論文リスト
- E-SAGE: Explainability-based Defense Against Backdoor Attacks on Graph Neural Networks [11.065220952144543]
本稿では,説明可能性に基づくGNNバックドア攻撃の防御手法であるE-SAGEを提案する。
E-SAGEは、エッジスコアに基づいて、グラフ上に反復的なエッジプルーニング処理を適応的に適用する。
本研究では,E-SAGEが攻撃環境における最先端のグラフバックドア攻撃に対して有効であることを示す。
論文 参考訳(メタデータ) (2024-06-15T14:50:41Z) - Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。