論文の概要: How does Graph Structure Modulate Membership-Inference Risk for Graph Neural Networks?
- arxiv url: http://arxiv.org/abs/2601.17130v1
- Date: Fri, 23 Jan 2026 19:08:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.297235
- Title: How does Graph Structure Modulate Membership-Inference Risk for Graph Neural Networks?
- Title(参考訳): グラフ構造は、グラフニューラルネットワークのメンバシップ推論リスクをどう調節するか?
- Authors: Megha Khosla,
- Abstract要約: グラフニューラルネットワーク(GNN)は、データとその複雑な関係を連続表現に符号化するための標準ツールとなっている。
センシティブなアプリケーションでの利用は、トレーニングデータの漏洩の可能性への懸念を引き起こしている。
GNNにおけるプライバシー漏洩の研究は、主に非グラフドメインからの発見によって形作られた。
- 参考スコア(独自算出の注目度): 0.34546020643989767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have become the standard tool for encoding data and their complex relationships into continuous representations, improving prediction accuracy in several machine learning tasks like node classification and link prediction. However, their use in sensitive applications has raised concerns about the potential leakage of training data. Research on privacy leakage in GNNs has largely been shaped by findings from non-graph domains, such as images and tabular data. We emphasize the need of graph specific analysis and investigate the impact of graph structure on node level membership inference. We formalize MI over node-neighbourhood tuples and investigate two important dimensions: (i) training graph construction and (ii) inference-time edge access. Empirically, snowball's coverage bias often harms generalisation relative to random sampling, while enabling inter-train-test edges at inference improves test accuracy, shrinks the train-test gap, and yields the lowest membership advantage across most of the models and datasets. We further show that the generalisation gap empirically measured as the performance difference between the train and test nodes is an incomplete proxy for MI risk: access to edges dominates-MI can rise or fall independent of gap changes. Finally, we examine the auditability of differentially private GNNs, adapting the definition of statistical exchangeability of train-test data points for graph based models. We show that for node level tasks the inductive splits (random or snowball sampled) break exchangeability, limiting the applicability of standard bounds for membership advantage of differential private models.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、データとその複雑な関係を連続表現に符号化する標準ツールとなり、ノード分類やリンク予測といった機械学習タスクの予測精度を向上させる。
しかし、センシティブなアプリケーションでの利用は、トレーニングデータの漏洩の可能性を懸念している。
GNNのプライバシー漏洩に関する研究は、画像や表データなどの非グラフ領域からの発見によって大きく形作られてきた。
本稿では,グラフ固有解析の必要性を強調し,グラフ構造がノードレベルのメンバシップ推定に与える影響について検討する。
ノード近傍のタプル上でMIを形式化し、2つの重要な次元を調べる。
(i)グラフ構築と学習
(ii)推論時エッジアクセス。
経験的に、スノーボールのカバレッジバイアスは、ランダムサンプリングと比較して一般化を害することが多いが、推論時の列車間エッジの実現は、テスト精度を改善し、テストギャップを縮小し、ほとんどのモデルやデータセットで最低メンバーシップ優位性を得る。
さらに,列車と試験ノード間の性能差として測定された一般化ギャップがMIリスクの不完全なプロキシであることを示す。
最後に、グラフベースモデルに対する列車試験データポイントの統計的交換性の定義に適応して、微分プライベートGNNの監査可能性について検討する。
ノードレベルのタスクでは、インダクティブ分割(ランダムまたはスノーボールサンプリング)の破断交換性が制限され、差分プライベートモデルによる標準境界の適用性が制限されることを示す。
関連論文リスト
- Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Stable Prediction on Graphs with Agnostic Distribution Shift [105.12836224149633]
グラフニューラルネットワーク(GNN)は、ランダムにトレーニングとテストデータを分離した様々なグラフタスクに有効であることが示されている。
しかし、実際のアプリケーションでは、トレーニンググラフの分布はテストグラフとは異なるかもしれない。
本稿では,グラフ上での局所的およびグローバル的に安定な学習と予測を可能にする,GNNのための新しい安定な予測フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T02:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。