論文の概要: Link Stealing Attacks Against Inductive Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2405.05784v1
- Date: Thu, 9 May 2024 14:03:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 13:13:05.370393
- Title: Link Stealing Attacks Against Inductive Graph Neural Networks
- Title(参考訳): インダクティブグラフニューラルネットワークに対するリンクステアリング攻撃
- Authors: Yixin Wu, Xinlei He, Pascal Berrang, Mathias Humbert, Michael Backes, Neil Zhenqiang Gong, Yang Zhang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
- 参考スコア(独自算出の注目度): 60.931106032824275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A graph neural network (GNN) is a type of neural network that is specifically designed to process graph-structured data. Typically, GNNs can be implemented in two settings, including the transductive setting and the inductive setting. In the transductive setting, the trained model can only predict the labels of nodes that were observed at the training time. In the inductive setting, the trained model can be generalized to new nodes/graphs. Due to its flexibility, the inductive setting is the most popular GNN setting at the moment. Previous work has shown that transductive GNNs are vulnerable to a series of privacy attacks. However, a comprehensive privacy analysis of inductive GNN models is still missing. This paper fills the gap by conducting a systematic privacy analysis of inductive GNNs through the lens of link stealing attacks, one of the most popular attacks that are specifically designed for GNNs. We propose two types of link stealing attacks, i.e., posterior-only attacks and combined attacks. We define threat models of the posterior-only attacks with respect to node topology and the combined attacks by considering combinations of posteriors, node attributes, and graph features. Extensive evaluation on six real-world datasets demonstrates that inductive GNNs leak rich information that enables link stealing attacks with advantageous properties. Even attacks with no knowledge about graph structures can be effective. We also show that our attacks are robust to different node similarities and different graph features. As a counterpart, we investigate two possible defenses and discover they are ineffective against our attacks, which calls for more effective defenses.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
通常、GNNはトランスダクティブ設定とインダクティブ設定の2つの設定で実装できる。
トランスダクティブ設定では、トレーニングされたモデルは、トレーニング時に観測されたノードのラベルのみを予測することができる。
帰納的設定では、トレーニングされたモデルを新しいノード/グラフに一般化することができる。
その柔軟性のため、インダクティブセッティングは今のところ最も人気のあるGNNセッティングである。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
しかし、誘導型GNNモデルの包括的なプライバシー分析はいまだに欠けている。
本稿では、リンク盗難攻撃のレンズを通して、誘導型GNNの体系的なプライバシー分析を行うことにより、ギャップを埋める。
本稿では,2種類のリンク盗難攻撃,すなわち後続攻撃と複合攻撃を提案する。
本稿では,ノードトポロジに対する後続攻撃の脅威モデルと,後続攻撃,ノード属性,グラフ特徴の組み合わせを考慮し,組み合わせ攻撃の脅威モデルを定義する。
6つの実世界のデータセットに対する広範囲な評価は、帰納的GNNが、有利な特性を持つリンク盗難攻撃を可能にする豊富な情報を漏らしていることを示している。
グラフ構造に関する知識のない攻撃でさえ効果的です。
また、我々の攻撃は異なるノードの類似性と異なるグラフ機能に対して堅牢であることも示しています。
対して、我々は2つの可能な防衛を調査し、より効果的な防衛を求める我々の攻撃に対して効果がないことを発見した。
関連論文リスト
- Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Structack: Structure-based Adversarial Attacks on Graph Neural Networks [1.795391652194214]
攻撃者はグラフ構造にのみアクセスできるが,ノード属性に関する情報は得られない。
構造に基づく非情報攻撃は情報攻撃の性能に近づき、計算効率が良くなることを示す。
Structackは、厳密な計算制約の下で動作しながら、非常に限られた情報でGNNの性能を操作できる。
論文 参考訳(メタデータ) (2021-07-23T16:17:10Z) - Membership Inference Attack on Graph Neural Networks [1.6457778420360536]
我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
論文 参考訳(メタデータ) (2021-01-17T02:12:35Z) - Efficient, Direct, and Restricted Black-Box Graph Evasion Attacks to
Any-Layer Graph Neural Networks via Influence Function [62.89388227354517]
グラフデータから学習する主流手法であるグラフニューラルネットワーク(GNN)は、グラフ回避攻撃に対して脆弱である。
既存の作業には、1)2層GNNを直接攻撃すること、2)非効率であること、3)GNNモデルパラメータの完全あるいは一部を知る必要があること、の2つの欠点の少なくとも1つがある。
本報告では,エフェクトベースの非効率,直接的,制限されたブラックボックス回避攻撃を,幻影層GNNに対して提案する。
論文 参考訳(メタデータ) (2020-09-01T03:24:51Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。