論文の概要: Learning-based Privacy-Preserving Graph Publishing Against Sensitive Link Inference Attacks
- arxiv url: http://arxiv.org/abs/2507.21139v1
- Date: Wed, 23 Jul 2025 04:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:54.985526
- Title: Learning-based Privacy-Preserving Graph Publishing Against Sensitive Link Inference Attacks
- Title(参考訳): 学習型プライバシ保護グラフの高感度リンク推論攻撃に対するパブリッシング
- Authors: Yucheng Wu, Yuncong Yang, Xiao Han, Leye Wang, Junjie Wu,
- Abstract要約: 本稿では,プライバシ保護のためのグラフ構造学習フレームワークを提案する。
PPGSLと名付けられたこのフレームワークは、最適なプライバシとユーティリティのトレードオフを備えたグラフを自動的に学習する。
PPGSLは、最先端のプライバシ-ユーティリティトレードオフ性能を実現し、様々な機密リンク推論攻撃を効果的に阻止する。
- 参考スコア(独自算出の注目度): 14.766917415961348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Publishing graph data is widely desired to enable a variety of structural analyses and downstream tasks. However, it also potentially poses severe privacy leakage, as attackers may leverage the released graph data to launch attacks and precisely infer private information such as the existence of hidden sensitive links in the graph. Prior studies on privacy-preserving graph data publishing relied on heuristic graph modification strategies and it is difficult to determine the graph with the optimal privacy--utility trade-off for publishing. In contrast, we propose the first privacy-preserving graph structure learning framework against sensitive link inference attacks, named PPGSL, which can automatically learn a graph with the optimal privacy--utility trade-off. The PPGSL operates by first simulating a powerful surrogate attacker conducting sensitive link attacks on a given graph. It then trains a parameterized graph to defend against the simulated adversarial attacks while maintaining the favorable utility of the original graph. To learn the parameters of both parts of the PPGSL, we introduce a secure iterative training protocol. It can enhance privacy preservation and ensure stable convergence during the training process, as supported by the theoretical proof. Additionally, we incorporate multiple acceleration techniques to improve the efficiency of the PPGSL in handling large-scale graphs. The experimental results confirm that the PPGSL achieves state-of-the-art privacy--utility trade-off performance and effectively thwarts various sensitive link inference attacks.
- Abstract(参考訳): グラフデータの公開は、様々な構造解析や下流タスクを可能にするために広く望まれている。
しかし、攻撃者はリリースしたグラフデータを利用して攻撃を発生させ、グラフに隠された機密リンクの存在などの個人情報を正確に推測する可能性があるため、プライバシーの漏洩も深刻になる可能性がある。
プライバシ保護グラフデータのパブリッシングに関する以前の研究はヒューリスティックグラフ修正戦略に依存しており、パブリッシングのための最適なプライバシ-ユーティリティトレードオフを用いてグラフを決定することは困難である。
これとは対照的に,プライバシ保護のためのグラフ構造学習フレームワークである PPGSL は,プライバシとユーティリティのトレードオフが最適であるグラフを自動的に学習する。
PPGSLは、まず、与えられたグラフに対してセンシティブなリンク攻撃を行う強力な代理攻撃者をシミュレートして動作する。
次に、パラメータ化されたグラフをトレーニングし、元のグラフの好都合性を維持しながら、シミュレーションされた敵攻撃に対して防御する。
PPGSLの両部分のパラメータを学習するために,セキュアな反復学習プロトコルを導入する。
理論実証によって支持されるように、プライバシー保護を強化し、トレーニングプロセス中に安定した収束を確保することができる。
さらに,大規模グラフ処理におけるPSGSLの効率向上のために,複数のアクセラレーション手法を取り入れた。
実験結果から,PDGSLは最先端のプライバシ-ユーティリティトレードオフ性能を実現し,各種の機密リンク推論攻撃を効果的に抑制することを確認した。
関連論文リスト
- Devil's Hand: Data Poisoning Attacks to Locally Private Graph Learning Protocols [46.94619400437805]
この研究は、ローカルなプライベートグラフ学習プロトコルをターゲットにした、最初のデータ中毒攻撃を導入している。
攻撃者は偽のユーザーをプロトコルに注入し、偽のユーザーを操作して本物のユーザーとリンクを確立する。
攻撃の有効性は理論的にも経験的にも示される。
論文 参考訳(メタデータ) (2025-06-11T14:46:11Z) - Cluster-Aware Attacks on Graph Watermarks [50.19105800063768]
本稿では,コミュニティ誘導型修正を回避できるクラスタ・アウェア・脅威モデルを提案する。
その結果,クラスタ・アウェア・アタックは,ランダムなベースラインよりも最大80%の精度でアトリビューション精度を低下させることができることがわかった。
グラフコミュニティにまたがる透かしノードを分散する軽量な埋め込み拡張を提案する。
論文 参考訳(メタデータ) (2025-04-24T22:49:28Z) - GraphTheft: Quantifying Privacy Risks in Graph Prompt Learning [1.2255617580795168]
Graph Prompt Learning(GPL)は、グラフ表現学習における革新的なアプローチであり、基礎となる事前学習モデルを変更することなく、プロンプトを微調整することでタスク固有の適応を可能にする。
人気の高まりにもかかわらず、PLに固有のプライバシーリスクは未解明のままである。
サービスとして機能する時のブラックボックス攻撃と、ノードの埋め込みとプロンプト表現がサードパーティにアクセス可能なシナリオだ。
論文 参考訳(メタデータ) (2024-11-22T04:10:49Z) - GCON: Differentially Private Graph Convolutional Network via Objective Perturbation [27.279817693305183]
Graph Convolutional Networks (GCNs)は、グラフ分析に幅広い応用がある一般的な機械学習モデルである。
プライバシー保護措置なしで訓練されたGCNは、トレーニングデータ内のプライベートな対人関係を記憶することができる。
これは、リンク攻撃によってプライバシーを侵害する重大なリスクを生じさせ、プライバシー規制に違反している可能性がある。
本稿では,GCNをエッジ差分プライバシでトレーニングするための,新しい効果的なソリューションであるGCONを提案する。
論文 参考訳(メタデータ) (2024-07-06T09:59:56Z) - Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。