論文の概要: Similarity Preserving Adversarial Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2306.13854v1
- Date: Sat, 24 Jun 2023 04:02:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 18:39:49.939980
- Title: Similarity Preserving Adversarial Graph Contrastive Learning
- Title(参考訳): 相似性保存逆グラフコントラスト学習
- Authors: Yeonjun In, Kanghoon Yoon, Chanyoung Park
- Abstract要約: 類似性を保存する逆数グラフの対比学習フレームワークを提案する。
本稿では,複数の下流タスクにおいてSP-AGCLが競合性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 5.671825576834061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works demonstrate that GNN models are vulnerable to adversarial
attacks, which refer to imperceptible perturbation on the graph structure and
node features. Among various GNN models, graph contrastive learning (GCL) based
methods specifically suffer from adversarial attacks due to their inherent
design that highly depends on the self-supervision signals derived from the
original graph, which however already contains noise when the graph is
attacked. To achieve adversarial robustness against such attacks, existing
methods adopt adversarial training (AT) to the GCL framework, which considers
the attacked graph as an augmentation under the GCL framework. However, we find
that existing adversarially trained GCL methods achieve robustness at the
expense of not being able to preserve the node feature similarity. In this
paper, we propose a similarity-preserving adversarial graph contrastive
learning (SP-AGCL) framework that contrasts the clean graph with two auxiliary
views of different properties (i.e., the node similarity-preserving view and
the adversarial view). Extensive experiments demonstrate that SP-AGCL achieves
a competitive performance on several downstream tasks, and shows its
effectiveness in various scenarios, e.g., a network with adversarial attacks,
noisy labels, and heterophilous neighbors. Our code is available at
https://github.com/yeonjun-in/torch-SP-AGCL.
- Abstract(参考訳): 近年の研究では、GNNモデルは、グラフ構造やノードの特徴に対する知覚不能な摂動を参照して、敵攻撃に弱いことが示されている。
グラフコントラッシブ・ラーニング(GCL)に基づく手法は、グラフが攻撃された際に既にノイズを含む元のグラフから派生した自己超越信号に大きく依存する固有の設計のため、特に敵対的攻撃に苦しむ。
このような攻撃に対する敵対的堅牢性を達成するため、既存の手法では、攻撃されたグラフをGCLフレームワークの強化とみなすGCLフレームワークに対する敵的訓練(AT)を採用している。
しかし,既存の逆向き学習したGCL手法は,ノードの特徴的類似性を保たずに頑健性が得られることがわかった。
本稿では,異なる特性の2つの補助的なビュー(すなわちノード類似性保存ビューと逆方向ビュー)と,クリーングラフを対比する類似性保存型逆向き学習(SP-AGCL)フレームワークを提案する。
大規模な実験により、SP-AGCLはいくつかの下流タスクにおいて競争力を発揮し、敵攻撃、雑音ラベル、異種近傍のネットワークなど、様々なシナリオにおいてその効果を示す。
私たちのコードはhttps://github.com/yeonjun-in/torch-sp-agclで利用可能です。
関連論文リスト
- Sparse but Strong: Crafting Adversarially Robust Graph Lottery Tickets [3.325501850627077]
Graph Lottery Tickets(GLT)は、その密度の高いものと比較して、推論レイテンシと計算フットプリントを大幅に削減する。
これらの利点にも拘わらず、敵構造摂動に対するそれらの性能はいまだに完全に検討されている。
本稿では,隣接行列とGNN重みを具現化する,逆向きに頑健なグラフスペーシフィケーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T17:52:46Z) - HC-Ref: Hierarchical Constrained Refinement for Robust Adversarial
Training of GNNs [7.635985143883581]
コンピュータビジョンにおける敵の攻撃に対する最も効果的な防御機構の1つとされる敵の訓練は、GNNの堅牢性を高めるという大きな約束を持っている。
本稿では,GNNと下流分類器の対摂動性を高める階層的制約改善フレームワーク(HC-Ref)を提案する。
論文 参考訳(メタデータ) (2023-12-08T07:32:56Z) - On the Adversarial Robustness of Graph Contrastive Learning Methods [9.675856264585278]
本稿では,グラフコントラスト学習(GCL)モデルのロバスト性を評価するために,包括的評価ロバストネスプロトコルを提案する。
我々はこれらのモデルを,グラフ構造をターゲットとした適応的敵攻撃,特に回避シナリオに適用する。
本研究は,GCL手法の堅牢性に関する知見を提供することを目標とし,今後の研究方向の道を開くことを期待する。
論文 参考訳(メタデータ) (2023-11-29T17:59:18Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - EGC2: Enhanced Graph Classification with Easy Graph Compression [3.599345724913102]
グラフ圧縮を容易にする拡張グラフ分類モデルであるEGC$2$を提案する。
EGC$2$は、特徴グラフの構築と集約ノードレベルの表現の改善によって、異なるノードの機能間の関係をキャプチャする。
7つのベンチマークデータセットの実験により,提案した特徴読み出し機構とグラフ圧縮機構により,様々な基本モデルの堅牢性が向上することが示された。
論文 参考訳(メタデータ) (2021-07-16T07:17:29Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。