論文の概要: ReconXF: Graph Reconstruction Attack via Public Feature Explanations on Privatized Node Features and Labels
- arxiv url: http://arxiv.org/abs/2506.02134v1
- Date: Mon, 02 Jun 2025 18:06:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.927278
- Title: ReconXF: Graph Reconstruction Attack via Public Feature Explanations on Privatized Node Features and Labels
- Title(参考訳): ReconXF: プライバタイズされたノードの特徴とラベルに関する公開機能説明によるグラフ再構成攻撃
- Authors: Rishi Raj Sahoo, Rucha Bhalchandra Joshi, Subhankar Mishra,
- Abstract要約: グラフニューラルネットワーク(GNN)は多くのアプリケーションで高いパフォーマンスを達成するが、ブラックボックスモデルとして機能する。
説明可能性の方法は、予測のための重要なノード属性を識別する機能レベルの説明を提供することによって、この問題に対処する。
既存のグラフ再構成攻撃は元の補助データへのアクセスを前提としているが、実際のシステムはノードの特徴やラベルを保護するために差分プライバシーを使用する。
本稿では,公開説明と民営化補助データを備えたシナリオを対象としたグラフ再構成攻撃ReconXFを提案する。
- 参考スコア(独自算出の注目度): 1.949927790632678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) achieve high performance across many applications but function as black-box models, limiting their use in critical domains like healthcare and criminal justice. Explainability methods address this by providing feature-level explanations that identify important node attributes for predictions. These explanations create privacy risks. Combined with auxiliary information, feature explanations can enable adversaries to reconstruct graph structure, exposing sensitive relationships. Existing graph reconstruction attacks assume access to original auxiliary data, but practical systems use differential privacy to protect node features and labels while providing explanations for transparency. We study a threat model where adversaries access public feature explanations along with privatized node features and labels. We show that existing explanation-based attacks like GSEF perform poorly with privatized data due to noise from differential privacy mechanisms. We propose ReconXF, a graph reconstruction attack for scenarios with public explanations and privatized auxiliary data. Our method adapts explanation-based frameworks by incorporating denoising mechanisms that handle differential privacy noise while exploiting structural signals in explanations. Experiments across multiple datasets show ReconXF outperforms SoTA methods in privatized settings, with improvements in AUC and average precision. Results indicate that public explanations combined with denoising enable graph structure recovery even under the privacy protection of auxiliary data. Code is available at (link to be made public after acceptance).
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くのアプリケーションで高いパフォーマンスを達成するが、ブラックボックスモデルとして機能し、医療や刑事司法といった重要な領域での使用を制限する。
説明可能性の方法は、予測のための重要なノード属性を識別する機能レベルの説明を提供することによって、この問題に対処する。
これらの説明はプライバシーのリスクを引き起こす。
補助情報と組み合わせることで、相手がグラフ構造を再構築し、センシティブな関係を露呈することができる。
既存のグラフ再構成攻撃は元の補助データへのアクセスを前提としているが、実際のシステムはノードの特徴やラベルを保護するために差分プライバシーを使用している。
敵が公的な特徴の説明にアクセスできるような脅威モデルと、民営化されたノードの特徴とラベルについて検討する。
GSEFのような既存の説明に基づく攻撃は、差分プライバシー機構からのノイズによる民営化データでは不十分であることを示す。
本稿では,公開説明と民営化補助データを備えたシナリオを対象としたグラフ再構成攻撃ReconXFを提案する。
本手法は, 説明文の構造的信号を利用して, 差分プライバシーノイズを処理できるデノベーション機構を組み込むことにより, 説明に基づくフレームワークに適応する。
複数のデータセットにわたる実験では、AUCの改善と平均精度で、民営化環境でのReconXFのSoTAメソッドのパフォーマンスが向上している。
その結果, 補助データのプライバシー保護下においても, 公的な説明とデノベーションを組み合わせることで, グラフ構造回復が可能であることが示唆された。
コードは、(受け入れ後公開されるリンク) で利用可能である。
関連論文リスト
- Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Private Graph Extraction via Feature Explanations [0.7442906193848509]
グラフ再構成攻撃によるグラフ機械学習におけるプライバシと解釈可能性の相互作用について検討する。
ポストホックな特徴説明の付加的な知識がこれらの攻撃の成功率を大幅に向上させることを示す。
本稿では,攻撃成功率を大幅に低減するランダム化応答機構に基づく防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-29T15:47:34Z) - A Shuffling Framework for Local Differential Privacy [40.92785300658643]
ldpデプロイメントは、敵がノイズ応答をアイデンティティにリンクできるため、推論攻撃に対して脆弱である。
別のモデルであるシャッフルDPは、ノイズ応答をランダムにシャッフルすることでこれを防止している。
雑音応答の体系的なシャッフルは、意味のあるデータ学習性を維持しつつ、特定の推論攻撃を抑えることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T20:36:23Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Adversarial Privacy Preserving Graph Embedding against Inference Attack [9.90348608491218]
グラフ埋め込みはグラフ構造化データから低次元の特徴表現を学習するのに非常に有用であることが証明されている。
既存のグラフ埋め込み手法は、推論攻撃を防ぐためのユーザのプライバシを考慮しない。
本稿では,学習ノード表現からユーザのプライベート情報を削除するためのアンタングルとパージ機構を統合したグラフ対向トレーニングフレームワークであるAdrial Privacy Graph Embedding (APGE)を提案する。
論文 参考訳(メタデータ) (2020-08-30T00:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。