論文の概要: Safeguarding Graph Neural Networks against Topology Inference Attacks
- arxiv url: http://arxiv.org/abs/2509.05429v2
- Date: Tue, 09 Sep 2025 13:31:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 12:33:22.820947
- Title: Safeguarding Graph Neural Networks against Topology Inference Attacks
- Title(参考訳): トポロジ推論攻撃に対するグラフニューラルネットワークの保護
- Authors: Jie Fu, Hong Yuan, Zhili Chen, Wendy Hui Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための強力なモデルとして登場した。
本稿では,GNNにおけるトポロジ的プライバシリスクに関する総合的研究を行い,グラフレベルの推論攻撃に対する脆弱性を明らかにする。
モデル精度を維持しながらトポロジのプライバシを保護するために設計された新しい防御フレームワークであるPrivate Graph Reconstruction (PGR)を紹介する。
- 参考スコア(独自算出の注目度): 16.885180168745546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as powerful models for learning from graph-structured data. However, their widespread adoption has raised serious privacy concerns. While prior research has primarily focused on edge-level privacy, a critical yet underexplored threat lies in topology privacy - the confidentiality of the graph's overall structure. In this work, we present a comprehensive study on topology privacy risks in GNNs, revealing their vulnerability to graph-level inference attacks. To this end, we propose a suite of Topology Inference Attacks (TIAs) that can reconstruct the structure of a target training graph using only black-box access to a GNN model. Our findings show that GNNs are highly susceptible to these attacks, and that existing edge-level differential privacy mechanisms are insufficient as they either fail to mitigate the risk or severely compromise model accuracy. To address this challenge, we introduce Private Graph Reconstruction (PGR), a novel defense framework designed to protect topology privacy while maintaining model accuracy. PGR is formulated as a bi-level optimization problem, where a synthetic training graph is iteratively generated using meta-gradients, and the GNN model is concurrently updated based on the evolving graph. Extensive experiments demonstrate that PGR significantly reduces topology leakage with minimal impact on model accuracy. Our code is available at https://github.com/JeffffffFu/PGR.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための強力なモデルとして登場した。
しかし、その普及がプライバシーの深刻な懸念を引き起こしている。
これまでの研究は主にエッジレベルのプライバシに焦点を当ててきたが、重要な脅威はトポロジのプライバシ(グラフ全体の構造の機密性)にある。
本研究では,GNNにおけるトポロジ的プライバシーリスクに関する包括的研究を行い,グラフレベルの推論攻撃に対する脆弱性を明らかにする。
そこで本研究では,GNNモデルへのブラックボックスアクセスのみを使用して,ターゲットトレーニンググラフの構造を再構築可能な,Topology Inference Attacks (TIAs) スイートを提案する。
以上の結果から,GNNはこれらの攻撃の影響を受けやすく,既存のエッジレベルの差分プライバシーメカニズムが不十分であること,リスクを軽減できないこと,あるいはモデル精度を著しく損なうことが示唆された。
この課題に対処するために、モデル精度を維持しながらトポロジのプライバシを保護するために設計された新しい防御フレームワークであるPrivate Graph Reconstruction (PGR)を導入する。
PGRは二段階最適化問題として定式化され、メタグラディエントを用いて合成トレーニンググラフを反復的に生成し、GNNモデルを進化グラフに基づいて並列に更新する。
大規模な実験により、PGRはモデル精度に最小限の影響を伴ってトポロジーリークを著しく低減することが示された。
私たちのコードはhttps://github.com/JeffffffFu/PGR.orgで公開されています。
関連論文リスト
- A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。