論文の概要: FocusedCleaner: Sanitizing Poisoned Graphs for Robust GNN-based Node
Classification
- arxiv url: http://arxiv.org/abs/2210.13815v2
- Date: Mon, 17 Jul 2023 12:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 00:09:01.469189
- Title: FocusedCleaner: Sanitizing Poisoned Graphs for Robust GNN-based Node
Classification
- Title(参考訳): FocusedCleaner:ロバストなGNNベースのノード分類のための中毒グラフの消毒
- Authors: Yulin Zhu, Liang Tong, Gaolei Li, Xiapu Luo, Kai Zhou
- Abstract要約: グラフニューラルネットワーク(GNN)は、データ中毒攻撃に対して脆弱である。
攻撃者が注入した毒を効果的に識別するために,FocusedCleanerを有毒グラフ消毒剤として提示した。
- 参考スコア(独自算出の注目度): 30.153380160443348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are vulnerable to data poisoning attacks, which
will generate a poisoned graph as the input to the GNN models. We present
FocusedCleaner as a poisoned graph sanitizer to effectively identify the poison
injected by attackers. Specifically, FocusedCleaner provides a sanitation
framework consisting of two modules: bi-level structural learning and victim
node detection. In particular, the structural learning module will reverse the
attack process to steadily sanitize the graph while the detection module
provides ``the focus" -- a narrowed and more accurate search region -- to
structural learning. These two modules will operate in iterations and reinforce
each other to sanitize a poisoned graph step by step. As an important
application, we show that the adversarial robustness of GNNs trained over the
sanitized graph for the node classification task is significantly improved.
Extensive experiments demonstrate that FocusedCleaner outperforms the
state-of-the-art baselines both on poisoned graph sanitation and improving
robustness.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、GNNモデルへの入力として有毒なグラフを生成するデータ中毒攻撃に対して脆弱である。
攻撃者が注入した毒を効果的に識別するために,FocusedCleanerを有毒グラフ消毒剤として提示した。
具体的には、FocusedCleanerは、双方向構造学習と犠牲者ノード検出という、2つのモジュールからなる衛生フレームワークを提供する。
特に、構造学習モジュールは攻撃プロセスを反転させ、グラフを着実にサニタイズする一方、検出モジュールは構造学習に ``the focus' -- 狭くより正確な検索領域 -- を提供する。
これら2つのモジュールは反復して動作し、互いに強化して有毒なグラフを段階的に浄化する。
重要な応用として,ノード分類タスクの衛生化グラフ上で訓練されたGNNの対角的ロバスト性が著しく向上したことを示す。
大規模な実験では、FocusedCleanerは有毒なグラフの衛生と堅牢性の改善の両方で最先端のベースラインを上回っている。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Robust Subgraph Learning by Monitoring Early Training Representations [5.524804393257921]
グラフニューラルネットワーク(GNN)は、グラフ学習やノード分類タスクにおける卓越したパフォーマンスに対して、大きな注目を集めている。
敵攻撃、特に感受性のあるノードによる攻撃に対する脆弱性は、意思決定において課題となる。
本稿では,SHERD(Subgraph Learning Hale through Early Training Representation Distances)を導入し,グラフ入力の性能と対角的堅牢性に対処する。
論文 参考訳(メタデータ) (2024-03-14T22:25:37Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。