論文の概要: Gradient Inversion Attack on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2411.19440v2
- Date: Sun, 03 Aug 2025 01:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 14:07:55.685641
- Title: Gradient Inversion Attack on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるグラディエント・インバージョン・アタック
- Authors: Divya Anand Sinha, Ruijie Du, Yezi Liu, Athina Markopolou, Yanning Shen,
- Abstract要約: 悪意のある攻撃者は、フェデレート学習中にニューラルネットワークの交換からプライベートイメージデータを盗むことができる。
本稿では,ノード分類タスクとグラフ分類タスクの両方において,リークした勾配からプライベートデータを再構成できるかどうかについて検討する。
広く使われている2つのGNNフレームワーク、すなわちGCNとGraphSAGEが分析されている。
- 参考スコア(独自算出の注目度): 11.075042582118963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph federated learning is of essential importance for training over large graph datasets while protecting data privacy, where each client stores a subset of local graph data, while the server collects the local gradients and broadcasts only the aggregated gradients. Recent studies reveal that a malicious attacker can steal private image data from the gradient exchange of neural networks during federated learning. However, the vulnerability of graph data and graph neural networks under such attacks, i.e., reconstructing both node features and graph structure from gradients, remains largely underexplored. To answer this question, this paper studies the problem of whether private data can be reconstructed from leaked gradients in both node classification and graph classification tasks and proposes a novel attack named Graph Leakage from Gradients (GLG). Two widely used GNN frameworks are analyzed, namely GCN and GraphSAGE. The effects of different model settings on reconstruction are extensively discussed. Theoretical analysis and empirical validation demonstrate that, by leveraging the unique properties of graph data and GNNs, GLG achieves more accurate reconstruction of both nodal features and graph structure from gradients.
- Abstract(参考訳): グラフフェデレーション学習は、各クライアントがローカルグラフデータのサブセットを格納し、サーバがローカル勾配を収集して集約された勾配のみをブロードキャストするデータプライバシーを保護しながら、大きなグラフデータセットをトレーニングする上で、不可欠である。
最近の研究では、悪意のある攻撃者が、フェデレート学習中にニューラルネットワークの勾配交換からプライベートイメージデータを盗むことができることが明らかになった。
しかし、このような攻撃下でのグラフデータとグラフニューラルネットワークの脆弱性、すなわち勾配からノードの特徴とグラフ構造の両方を再構築するという脆弱性は、大半が未解明のままである。
本稿では,ノード分類タスクとグラフ分類タスクの両方において,プライベートデータを漏洩勾配から再構築できるかどうかについて検討し,グラディエンスからのグラフ漏洩(GLG)という新たな攻撃法を提案する。
広く使われている2つのGNNフレームワーク、すなわちGCNとGraphSAGEが分析されている。
異なるモデル設定が再構成に与える影響を概説する。
理論的解析と実証的検証により、グラフデータとGNNのユニークな性質を活用することにより、GLGは勾配から結節特徴とグラフ構造のより正確な再構築を実現する。
関連論文リスト
- GRAIN: Exact Graph Reconstruction from Gradients [5.697251900862886]
フェデレーション学習は、データプライバシを持つ複数のクライアント間で協調的なモデルトレーニングを可能にすると主張している。
最近の研究によると、クライアントのプライバシーは、いわゆるグラデーション・インバージョン・アタックによってまだ危険にさらされている。
本稿では,グラフデータに対する最初の厳密な勾配反転攻撃であるGRAINについて述べる。
論文 参考訳(メタデータ) (2025-03-03T18:58:12Z) - GraphBridge: Towards Arbitrary Transfer Learning in GNNs [65.01790632978962]
GraphBridgeは、GNNの異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークである。
予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
これらのシナリオを代表する16以上のデータセットで実施された実証検証では、タスクとドメインに依存しないトランスファー学習のためのフレームワークの能力が確認されている。
論文 参考訳(メタデータ) (2025-02-26T15:57:51Z) - Line Graph Vietoris-Rips Persistence Diagram for Topological Graph Representation Learning [3.6881508872690825]
トポロジカルエッジ図(TED)と呼ばれる新しいエッジフィルタを用いた永続化図を導入する。
TEDは、ノードの埋め込み情報を保存し、追加の位相情報を含むことが数学的に証明されている。
本稿では,グラフを行グラフに変換することによってエッジ情報を抽出するLine Graph Vietoris-Rips (LGVR) Persistence Diagramを提案する。
論文 参考訳(メタデータ) (2024-12-23T10:46:44Z) - Gradient Rewiring for Editable Graph Neural Network Training [84.77778876113099]
underlineGradient underlineRewiringメソッドは、textbfGREという、アンダーライン編集可能なグラフニューラルネットワークトレーニングのためのものだ。
そこで本稿では,textbfGRE という名前のアンダーライン編集可能なグラフニューラルネットワークトレーニングのための,シンプルで効果的なアンダーライングラディエントアンダーラインリスイッチ法を提案する。
論文 参考訳(メタデータ) (2024-10-21T01:01:50Z) - Talos: A More Effective and Efficient Adversarial Defense for GNN Models Based on the Global Homophily of Graphs [2.4866716181615467]
グラフニューラルネットワーク(GNN)モデルは、敵攻撃の影響を受けやすい。
そこで我々は,グラフの局所的ホモフィリーを防御としてではなく,グローバル性を高める,Talosという新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T08:08:01Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z) - Geom-GCN: Geometric Graph Convolutional Networks [15.783571061254847]
本稿では,この2つの弱点を克服するために,グラフニューラルネットワークのための新しい幾何集約手法を提案する。
提案したアグリゲーションスキームは置換不変であり、ノード埋め込み、構造近傍、二レベルアグリゲーションという3つのモジュールから構成される。
また,このスキームをGeom-GCNと呼ばれるグラフ畳み込みネットワークに実装し,グラフ上でトランスダクティブ学習を行う。
論文 参考訳(メタデータ) (2020-02-13T00:03:09Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。