論文の概要: FocusedCleaner: Sanitizing Poisoned Graphs for Robust GNN-based Node
Classification
- arxiv url: http://arxiv.org/abs/2210.13815v1
- Date: Tue, 25 Oct 2022 07:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 16:18:18.544032
- Title: FocusedCleaner: Sanitizing Poisoned Graphs for Robust GNN-based Node
Classification
- Title(参考訳): FocusedCleaner:ロバストなGNNベースのノード分類のための中毒グラフの消毒
- Authors: Yulin Zhu, Liang Tong, Kai Zhou
- Abstract要約: 広くデプロイされている敵攻撃の定式化は、グラフニューラルネットワーク(GNN)の予測を誤解させるリレーショナルデータを変更するグラフ操作攻撃である。
本稿では,二段階構造学習と被害者ノード検出という2つのモジュールからなる有毒なグラフ衛生フレームワークであるFocusedCleanerを提案する。
特に、構造学習モジュールは、グラフを着実にサニタイズするために攻撃プロセスを予約し、検出モジュールは構造学習に"焦点"(狭く、より正確な探索領域)を提供する。
- 参考スコア(独自算出の注目度): 13.376369925617166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, a lot of research attention has been devoted to exploring Web
security, a most representative topic is the adversarial robustness of graph
mining algorithms. Especially, a widely deployed adversarial attacks
formulation is the graph manipulation attacks by modifying the relational data
to mislead the Graph Neural Networks' (GNNs) predictions. Naturally, an
intrinsic question one would ask is whether we can accurately identify the
manipulations over graphs - we term this problem as poisoned graph sanitation.
In this paper, we present FocusedCleaner, a poisoned graph sanitation framework
consisting of two modules: bi-level structural learning and victim node
detection. In particular, the structural learning module will reserve the
attack process to steadily sanitize the graph while the detection module
provides the "focus" - a narrowed and more accurate search region - to
structural learning. These two modules will operate in iterations and reinforce
each other to sanitize a poisoned graph step by step. Extensive experiments
demonstrate that FocusedCleaner outperforms the state-of-the-art baselines both
on poisoned graph sanitation and improving robustness.
- Abstract(参考訳): 近年、Webセキュリティの探求に多くの研究が注がれており、最も代表的なトピックはグラフマイニングアルゴリズムの敵対的堅牢性である。
特に,グラフニューラルネットワーク(GNN)の予測を誤解させるような関係データを修正することで,グラフ操作攻撃が広く展開されている。
当然、本質的な質問は、グラフ上の操作を正確に特定できるかどうかである。
本稿では,二段階構造学習と被害者ノード検出という2つのモジュールからなる有毒なグラフ衛生フレームワークであるFocusedCleanerを提案する。
特に、構造学習モジュールは、グラフを着実にサニタイズするために攻撃プロセスを予約し、検出モジュールは構造学習に"焦点"(狭くより正確な探索領域)を提供する。
これら2つのモジュールは反復して動作し、互いに強化して有毒なグラフを段階的に浄化する。
大規模な実験では、FocusedCleanerは有毒なグラフの衛生と堅牢性の改善の両方で最先端のベースラインを上回っている。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - Structure-Enhanced Meta-Learning For Few-Shot Graph Classification [53.54066611743269]
本研究では,数点グラフ分類の解法のためのメトリベースメタラーニングの可能性を検討する。
SMFGINというGINの実装は、ChemblとTRIANGLESの2つのデータセットでテストされている。
論文 参考訳(メタデータ) (2021-03-05T09:03:03Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。