論文の概要: EdgePruner: Poisoned Edge Pruning in Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2312.07022v1
- Date: Tue, 12 Dec 2023 07:15:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:12:46.103647
- Title: EdgePruner: Poisoned Edge Pruning in Graph Contrastive Learning
- Title(参考訳): EdgePruner: グラフコントラスト学習におけるエッジプルーニング
- Authors: Hiroya Kato, Kento Hasegawa, Seira Hidano, Kazuhide Fukushima
- Abstract要約: グラフコントラスト学習(GCL)は、既存の学習モデルと同様に、有害な攻撃に対して脆弱である。
本稿では,GCL,EdgePrunerの簡易防衛法を提案する。
We show that EdgePruner can improve the accuracy of node classification under the attack than the state-of-the-art defense。
- 参考スコア(独自算出の注目度): 5.651740901104587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Contrastive Learning (GCL) is unsupervised graph representation
learning that can obtain useful representation of unknown nodes. The node
representation can be utilized as features of downstream tasks. However, GCL is
vulnerable to poisoning attacks as with existing learning models. A
state-of-the-art defense cannot sufficiently negate adverse effects by poisoned
graphs although such a defense introduces adversarial training in the GCL. To
achieve further improvement, pruning adversarial edges is important. To the
best of our knowledge, the feasibility remains unexplored in the GCL domain. In
this paper, we propose a simple defense for GCL, EdgePruner. We focus on the
fact that the state-of-the-art poisoning attack on GCL tends to mainly add
adversarial edges to create poisoned graphs, which means that pruning edges is
important to sanitize the graphs. Thus, EdgePruner prunes edges that contribute
to minimizing the contrastive loss based on the node representation obtained
after training on poisoned graphs by GCL. Furthermore, we focus on the fact
that nodes with distinct features are connected by adversarial edges in
poisoned graphs. Thus, we introduce feature similarity between neighboring
nodes to help more appropriately determine adversarial edges. This similarity
is helpful in further eliminating adverse effects from poisoned graphs on
various datasets. Finally, EdgePruner outputs a graph that yields the minimum
contrastive loss as the sanitized graph. Our results demonstrate that pruning
adversarial edges is feasible on six datasets. EdgePruner can improve the
accuracy of node classification under the attack by up to 5.55% compared with
that of the state-of-the-art defense. Moreover, we show that EdgePruner is
immune to an adaptive attack.
- Abstract(参考訳): Graph Contrastive Learning (GCL)は、未知ノードの有用な表現を得ることができる教師なしグラフ表現学習である。
ノード表現は、ダウンストリームタスクの特徴として利用できる。
しかし、GCLは既存の学習モデルと同様に中毒攻撃に弱い。
最先端の防御は有毒なグラフによる悪影響を十分に否定することはできないが、そのような防御はgclに敵対的な訓練を導入する。
さらに改良するためには, 対向エッジの刈り取りが重要である。
我々の知る限りでは、その実現可能性はまだGCL領域で探索されていない。
本稿では,GCL,EdgePrunerの簡易防衛法を提案する。
gclに対する最先端の毒殺攻撃は、主に有害なグラフを作成するために敵対的なエッジを追加する傾向があるという事実に注目します。
したがって、edgepruner prunesはgclによる有毒グラフのトレーニング後に得られたノード表現に基づいてコントラスト損失を最小化する。
さらに,異なる特徴を持つノードが有毒グラフの対角線で接続されているという事実にも着目する。
そこで我々は, 隣接ノード間の特徴類似性を導入し, 対向エッジをより適切に決定する。
この類似性は、様々なデータセットの有毒グラフからの悪影響をさらに排除するのに役立つ。
最後にedgeprunerは、サニタイズされたグラフとして最小のコントラスト損失をもたらすグラフを出力する。
以上の結果から,6つのデータセット上でpruning adversarial edgesが実現可能であることが示された。
EdgePrunerは攻撃時のノード分類の精度を最先端の防御よりも最大5.55%向上させることができる。
さらに,EdgePrunerは適応攻撃に対して免疫性を示す。
関連論文リスト
- Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks [53.41164429486268]
グラフニューラルネットワーク(GNN)は、近隣ノードからグラフ構造化情報を収集する強力な能力を示した。
GNNの性能は、ノイズや冗長なグラフデータによって引き起こされる一般化の貧弱さと脆弱な堅牢性によって制限される。
本稿では,エッジの除去を誘導する対向エッジ予測器を利用する新しい対向エッジドロップ法 (ADEdgeDrop) を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:31:39Z) - Similarity Preserving Adversarial Graph Contrastive Learning [5.671825576834061]
類似性を保存する逆数グラフの対比学習フレームワークを提案する。
本稿では,複数の下流タスクにおいてSP-AGCLが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-06-24T04:02:50Z) - Graph Adversarial Immunization for Certifiable Robustness [63.58739705845775]
グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は、敵の訓練やモデル修正の開発に重点を置いている。
本稿では,グラフ構造の一部を接種するグラフ対人免疫法を提案し,定式化する。
論文 参考訳(メタデータ) (2023-02-16T03:18:43Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - DiP-GNN: Discriminative Pre-Training of Graph Neural Networks [49.19824331568713]
GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
一般的な事前トレーニング手法の1つは、エッジのパーセンテージをマスクアウトすることであり、GNNはそれらを回復するように訓練されている。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
論文 参考訳(メタデータ) (2022-09-15T17:41:50Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。