論文の概要: Adversarial Attack on Hierarchical Graph Pooling Neural Networks
- arxiv url: http://arxiv.org/abs/2005.11560v1
- Date: Sat, 23 May 2020 16:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 03:28:14.308787
- Title: Adversarial Attack on Hierarchical Graph Pooling Neural Networks
- Title(参考訳): 階層型グラフポーリングニューラルネットワークの逆攻撃
- Authors: Haoteng Tang, Guixiang Ma, Yurong Chen, Lei Guo, Wei Wang, Bo Zeng,
Liang Zhan
- Abstract要約: グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
- 参考スコア(独自算出の注目度): 14.72310134429243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the emergence and development of graph neural
networks (GNNs), which have been shown as a powerful approach for graph
representation learning in many tasks, such as node classification and graph
classification. The research on the robustness of these models has also started
to attract attentions in the machine learning field. However, most of the
existing work in this area focus on the GNNs for node-level tasks, while little
work has been done to study the robustness of the GNNs for the graph
classification task. In this paper, we aim to explore the vulnerability of the
Hierarchical Graph Pooling (HGP) Neural Networks, which are advanced GNNs that
perform very well in the graph classification in terms of prediction accuracy.
We propose an adversarial attack framework for this task. Specifically, we
design a surrogate model that consists of convolutional and pooling operators
to generate adversarial samples to fool the hierarchical GNN-based graph
classification models. We set the preserved nodes by the pooling operator as
our attack targets, and then we perturb the attack targets slightly to fool the
pooling operator in hierarchical GNNs so that they will select the wrong nodes
to preserve. We show the adversarial samples generated from multiple datasets
by our surrogate model have enough transferability to attack current
state-of-art graph classification models. Furthermore, we conduct the robust
train on the target models and demonstrate that the retrained graph
classification models are able to better defend against the attack from the
adversarial samples. To the best of our knowledge, this is the first work on
the adversarial attack against hierarchical GNN-based graph classification
models.
- Abstract(参考訳): 近年、ノード分類やグラフ分類など、多くのタスクにおいて、グラフ表現学習の強力なアプローチとして示されているグラフニューラルネットワーク(gnns)の出現と開発が目撃されている。
これらのモデルの堅牢性に関する研究は、機械学習分野でも注目を集め始めている。
しかし、この領域における既存の研究のほとんどはノードレベルのタスクのためのGNNに焦点を当てているが、グラフ分類タスクのためのGNNの堅牢性の研究はほとんど行われていない。
本稿では,階層型グラフプーリング(hgp)ニューラルネットワークの脆弱性について検討することを目的とした。
本稿では,この課題に対する敵攻撃フレームワークを提案する。
具体的には,階層型gnnベースのグラフ分類モデルを騙すために,畳み込み演算子とプール演算子からなるサロゲートモデルを設計する。
我々は、プール演算子によって保存されたノードを攻撃ターゲットに設定し、次に攻撃対象を少しゆがめ、階層的なGNNでプール演算子を騙して、保存すべき間違ったノードを選択する。
代理モデルによる複数のデータセットから生成された逆数サンプルは、現在の最先端グラフ分類モデルを攻撃するのに十分な転送性を有することを示す。
さらに,ターゲットモデル上でロバストなトレインを行い,再トレーニングされたグラフ分類モデルが,敵のサンプルからの攻撃に対してよりよく防御できることを実証する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
関連論文リスト
- Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.552065156611815]
グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、広範囲のアプリケーションにおいてますます重要になりつつある。
本稿では,誘導型GNNに対して教師なしモデルステアリング攻撃を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Membership Inference Attack on Graph Neural Networks [1.6457778420360536]
我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
論文 参考訳(メタデータ) (2021-01-17T02:12:35Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。