論文の概要: Exploiting Global Graph Homophily for Generalized Defense in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2406.03833v1
- Date: Thu, 6 Jun 2024 08:08:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 15:59:34.035666
- Title: Exploiting Global Graph Homophily for Generalized Defense in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける汎用ディフェンスのためのグローバルグラフホモフィリーの爆発
- Authors: Duanyu Li, Huijun Wu, Min Xie, Xugang Wu, Zhenwei Wu, Wenzhe Zhang,
- Abstract要約: グラフニューラルネットワーク(GNN)モデルは、敵攻撃の影響を受けやすい。
そこで我々は,グラフの局所的ホモフィリーを防御としてではなく,グローバル性を高める,Talosという新しい防衛手法を提案する。
- 参考スコア(独自算出の注目度): 2.4866716181615467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural network (GNN) models play a pivotal role in numerous tasks involving graph-related data analysis. Despite their efficacy, similar to other deep learning models, GNNs are susceptible to adversarial attacks. Even minor perturbations in graph data can induce substantial alterations in model predictions. While existing research has explored various adversarial defense techniques for GNNs, the challenge of defending against adversarial attacks on real-world scale graph data remains largely unresolved. On one hand, methods reliant on graph purification and preprocessing tend to excessively emphasize local graph information, leading to sub-optimal defensive outcomes. On the other hand, approaches rooted in graph structure learning entail significant time overheads, rendering them impractical for large-scale graphs. In this paper, we propose a new defense method named Talos, which enhances the global, rather than local, homophily of graphs as a defense. Experiments show that the proposed approach notably outperforms state-of-the-art defense approaches, while imposing little computational overhead.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)モデルは、グラフ関連データ分析を含む多くのタスクにおいて重要な役割を果たす。
他のディープラーニングモデルと同様、その効果にもかかわらず、GNNは敵の攻撃を受けやすい。
グラフデータの小さな摂動でさえ、モデルの予測にかなりの変化をもたらす可能性がある。
既存の研究では、GNNの様々な敵防衛技術について検討されているが、現実のグラフデータに対する敵の攻撃に対する防御の課題は未解決のままである。
一方、グラフの浄化と前処理に依存した手法は、局所的なグラフ情報を過度に強調し、準最適防御結果をもたらす傾向にある。
一方、グラフ構造学習に根ざしたアプローチは、大きな時間的オーバーヘッドを伴い、大規模グラフでは現実的ではない。
本稿では,グラフの局所的ホモフィリエを防御としてではなく,グローバル性を高める,Talosという新しい防衛手法を提案する。
実験の結果、提案手法は最先端の防御手法よりも優れており、計算オーバーヘッドは少ないことがわかった。
関連論文リスト
- On the Robustness of Graph Reduction Against GNN Backdoor [9.377257547233919]
グラフニューラルネットワーク(GNN)は,グラフ構造化データ学習の有効性から,さまざまな領域で人気を集めている。
バックドア中毒は、現実世界の応用に深刻な脅威をもたらす。
粗大化やスパシフィケーションを含むグラフ削減技術は、大規模グラフ上でのGNNトレーニングを加速する有効な方法として現れている。
論文 参考訳(メタデータ) (2024-07-02T17:08:38Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.775113207763946]
本稿では,誘導型GNNに対する教師なしモデルステアリング攻撃の新しい手法を提案する。
対象モデルから効率的に情報を抽出するために,グラフのコントラスト学習とスペクトルグラフ拡張に基づいている。
その結果,既存の盗難攻撃と比較して高い効率性を示した。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。