論文の概要: Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation
- arxiv url: http://arxiv.org/abs/2211.08068v1
- Date: Tue, 15 Nov 2022 11:44:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:57:12.902728
- Title: Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation
- Title(参考訳): 協調血友病増悪によるグラフ逆行攻撃の残存
- Authors: Zhihao Zhu, Chenwang Wu, Min Zhou, Hao Liao, Defu Lian, Enhong Chen
- Abstract要約: 最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
- 参考スコア(独自算出の注目度): 60.50994154879244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies show that Graph Neural Networks(GNNs) are vulnerable and
easily fooled by small perturbations, which has raised considerable concerns
for adapting GNNs in various safety-critical applications. In this work, we
focus on the emerging but critical attack, namely, Graph Injection Attack(GIA),
in which the adversary poisons the graph by injecting fake nodes instead of
modifying existing structures or node attributes. Inspired by findings that the
adversarial attacks are related to the increased heterophily on perturbed
graphs (the adversary tends to connect dissimilar nodes), we propose a general
defense framework CHAGNN against GIA through cooperative homophilous
augmentation of graph data and model. Specifically, the model generates
pseudo-labels for unlabeled nodes in each round of training to reduce
heterophilous edges of nodes with distinct labels. The cleaner graph is fed
back to the model, producing more informative pseudo-labels. In such an
iterative manner, model robustness is then promisingly enhanced. We present the
theoretical analysis of the effect of homophilous augmentation and provide the
guarantee of the proposal's validity. Experimental results empirically
demonstrate the effectiveness of CHAGNN in comparison with recent
state-of-the-art defense methods on diverse real-world datasets.
- Abstract(参考訳): 近年の研究では、グラフニューラルネットワーク(GNN)は、小さな摂動によって脆弱で容易に騙され、様々な安全クリティカルなアプリケーションにGNNを適用することを懸念している。
本研究では,既存の構造やノード属性を変更する代わりに,偽のノードを注入することで,相手がグラフに毒を盛る,グラフ注入攻撃(Graph Injection Attack, GIA)に焦点を当てる。
逆境攻撃が摂動グラフのヘテロフィリーの増加(逆境は異種ノードを接続する傾向がある)に関連しているという知見に触発されて,グラフデータとモデルの協調的な相同性強化を通じて,giaに対する一般的な防衛フレームワークchagnnを提案する。
具体的には、トレーニング毎にラベルのないノードの擬似ラベルを生成し、異なるラベルを持つノードの異種エッジを削減する。
よりクリーンなグラフはモデルにフィードバックされ、より情報的な擬似ラベルを生成する。
このような反復的な方法で、モデルロバスト性は有望に強化される。
本稿では,同好性増強の効果に関する理論的解析を行い,提案の妥当性の保証を行う。
実験により,CHAGNNの有効性を実世界の多様なデータセット上で実証的に実証した。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Universally Robust Graph Neural Networks by Preserving Neighbor
Similarity [5.660584039688214]
NSPGNNと呼ばれる新しい頑健なモデルを導入し、隣接する類似性誘導伝搬を監督するために、二重kNNグラフパイプラインを組み込んだ。
ホモ親和グラフとヘテロ親和グラフの両方の実験は、最先端の手法と比較してNSPGNNの普遍的堅牢性を検証する。
論文 参考訳(メタデータ) (2024-01-18T06:57:29Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Improving Robustness of Graph Neural Networks with Heterophily-Inspired
Designs [18.524164548051417]
多くのグラフニューラルネットワーク(GNN)は、敵の攻撃に敏感であり、グラフ構造が意図的に乱れた場合、性能損失を被る可能性がある。
ノード特徴がホモフィリで、衝撃的な構造的攻撃が常にヘテロフィリのレベルを上昇させるという標準的なシナリオを示す。
我々は、(i)エゴエンベディングと(ii)アグリゲータの分離したアグリゲータ、および(ii)アグリゲーションの範囲を小さくすることで、GNNのロバスト性を大幅に向上させる2つの設計を提案する。
論文 参考訳(メタデータ) (2021-06-14T21:39:36Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。