論文の概要: Mitigating the Structural Bias in Graph Adversarial Defenses
- arxiv url: http://arxiv.org/abs/2504.20848v1
- Date: Tue, 29 Apr 2025 15:19:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.957666
- Title: Mitigating the Structural Bias in Graph Adversarial Defenses
- Title(参考訳): グラフ敵防衛における構造バイアスの緩和
- Authors: Junyuan Fang, Huimin Liu, Han Yang, Jiajing Wu, Zibin Zheng, Chi K. Tse,
- Abstract要約: 近年の研究では、グラフニューラルネットワーク(GNN)は悪意のある敵対的攻撃を受けやすいことが報告されている。
本稿では,ヘテロホモグラフ構築,$k$NN拡張グラフ構築,マルチビューノードワイドアテンションモジュールなどの防衛戦略を提案する。
提案手法がベンチマークデータセットに与える影響を実証するために,広範な実験を行った。
- 参考スコア(独自算出の注目度): 25.511121574854872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, graph neural networks (GNNs) have shown great potential in addressing various graph structure-related downstream tasks. However, recent studies have found that current GNNs are susceptible to malicious adversarial attacks. Given the inevitable presence of adversarial attacks in the real world, a variety of defense methods have been proposed to counter these attacks and enhance the robustness of GNNs. Despite the commendable performance of these defense methods, we have observed that they tend to exhibit a structural bias in terms of their defense capability on nodes with low degree (i.e., tail nodes), which is similar to the structural bias of traditional GNNs on nodes with low degree in the clean graph. Therefore, in this work, we propose a defense strategy by including hetero-homo augmented graph construction, $k$NN augmented graph construction, and multi-view node-wise attention modules to mitigate the structural bias of GNNs against adversarial attacks. Notably, the hetero-homo augmented graph consists of removing heterophilic links (i.e., links connecting nodes with dissimilar features) globally and adding homophilic links (i.e., links connecting nodes with similar features) for nodes with low degree. To further enhance the defense capability, an attention mechanism is adopted to adaptively combine the representations from the above two kinds of graph views. We conduct extensive experiments to demonstrate the defense and debiasing effect of the proposed strategy on benchmark datasets.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)は、様々なグラフ構造に関連した下流タスクに対処する大きな可能性を示している。
しかし、近年の研究では、現在のGNNは悪意のある敵の攻撃を受けやすいことが判明している。
現実世界における敵攻撃の必然的存在を考えると、これらの攻撃に対処し、GNNの堅牢性を高めるために様々な防御方法が提案されている。
これらの防御法の性能は高いが, 従来のGNNの構造バイアスに類似した低次ノード(テールノード)では, 防御能力の面で構造バイアスが生じる傾向にある。
そこで本研究では,GNNの構造バイアスを軽減するために,ヘテロホモグラフ構築,$k$NN拡張グラフ構築,マルチビューノードワイズアテンションモジュールを含む防衛戦略を提案する。
特に、ヘテロホモ拡張グラフは、グローバルなヘテロ親和性リンク(例えば、異なる特徴を持つノードのリンク)を除去し、低次ノードに対するホモ親和性リンク(例えば、類似した特徴を持つノードのリンク)を追加する。
さらに防衛能力を高めるため、上記の2種類のグラフビューからの表現を適応的に結合するアテンション機構を採用した。
提案手法がベンチマークデータセットに与える影響を実証するために,広範な実験を行った。
関連論文リスト
- Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Exploring High-Order Structure for Robust Graph Structure Learning [33.62223306095631]
グラフニューラルネットワーク(GNN)は、敵の攻撃に対して脆弱である。すなわち、知覚不能な構造摂動は、GNNを騙して誤った予測をすることができる。
本稿では,特徴の滑らかさの観点から,グラフに対する逆攻撃を解析する。
本稿では,高次構造情報をグラフ構造学習に組み込む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-22T07:03:08Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - GNNGuard: Defending Graph Neural Networks against Adversarial Attacks [16.941548115261433]
我々はGNNGuardを開発した。GNNGuardは、離散グラフ構造を乱す様々な訓練時間攻撃に対して防御するアルゴリズムである。
GNNGuardは、関連のないノード間のエッジを切断しながら、類似ノードを接続するエッジにより高い重みを割り当てる方法を学ぶ。
実験の結果、GNNGuardは既存の防衛アプローチを平均15.3%上回る結果となった。
論文 参考訳(メタデータ) (2020-06-15T06:07:46Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。