論文の概要: FocusedCleaner: Sanitizing Poisoned Graphs for Robust GNN-based Node
Classification
- arxiv url: http://arxiv.org/abs/2210.13815v1
- Date: Tue, 25 Oct 2022 07:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 16:18:18.544032
- Title: FocusedCleaner: Sanitizing Poisoned Graphs for Robust GNN-based Node
Classification
- Title(参考訳): FocusedCleaner:ロバストなGNNベースのノード分類のための中毒グラフの消毒
- Authors: Yulin Zhu, Liang Tong, Kai Zhou
- Abstract要約: 広くデプロイされている敵攻撃の定式化は、グラフニューラルネットワーク(GNN)の予測を誤解させるリレーショナルデータを変更するグラフ操作攻撃である。
本稿では,二段階構造学習と被害者ノード検出という2つのモジュールからなる有毒なグラフ衛生フレームワークであるFocusedCleanerを提案する。
特に、構造学習モジュールは、グラフを着実にサニタイズするために攻撃プロセスを予約し、検出モジュールは構造学習に"焦点"(狭く、より正確な探索領域)を提供する。
- 参考スコア(独自算出の注目度): 13.376369925617166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, a lot of research attention has been devoted to exploring Web
security, a most representative topic is the adversarial robustness of graph
mining algorithms. Especially, a widely deployed adversarial attacks
formulation is the graph manipulation attacks by modifying the relational data
to mislead the Graph Neural Networks' (GNNs) predictions. Naturally, an
intrinsic question one would ask is whether we can accurately identify the
manipulations over graphs - we term this problem as poisoned graph sanitation.
In this paper, we present FocusedCleaner, a poisoned graph sanitation framework
consisting of two modules: bi-level structural learning and victim node
detection. In particular, the structural learning module will reserve the
attack process to steadily sanitize the graph while the detection module
provides the "focus" - a narrowed and more accurate search region - to
structural learning. These two modules will operate in iterations and reinforce
each other to sanitize a poisoned graph step by step. Extensive experiments
demonstrate that FocusedCleaner outperforms the state-of-the-art baselines both
on poisoned graph sanitation and improving robustness.
- Abstract(参考訳): 近年、Webセキュリティの探求に多くの研究が注がれており、最も代表的なトピックはグラフマイニングアルゴリズムの敵対的堅牢性である。
特に,グラフニューラルネットワーク(GNN)の予測を誤解させるような関係データを修正することで,グラフ操作攻撃が広く展開されている。
当然、本質的な質問は、グラフ上の操作を正確に特定できるかどうかである。
本稿では,二段階構造学習と被害者ノード検出という2つのモジュールからなる有毒なグラフ衛生フレームワークであるFocusedCleanerを提案する。
特に、構造学習モジュールは、グラフを着実にサニタイズするために攻撃プロセスを予約し、検出モジュールは構造学習に"焦点"(狭くより正確な探索領域)を提供する。
これら2つのモジュールは反復して動作し、互いに強化して有毒なグラフを段階的に浄化する。
大規模な実験では、FocusedCleanerは有毒なグラフの衛生と堅牢性の改善の両方で最先端のベースラインを上回っている。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Robust Subgraph Learning by Monitoring Early Training Representations [5.524804393257921]
グラフニューラルネットワーク(GNN)は、グラフ学習やノード分類タスクにおける卓越したパフォーマンスに対して、大きな注目を集めている。
敵攻撃、特に感受性のあるノードによる攻撃に対する脆弱性は、意思決定において課題となる。
本稿では,SHERD(Subgraph Learning Hale through Early Training Representation Distances)を導入し,グラフ入力の性能と対角的堅牢性に対処する。
論文 参考訳(メタデータ) (2024-03-14T22:25:37Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。