論文の概要: GraphTheft: Quantifying Privacy Risks in Graph Prompt Learning
- arxiv url: http://arxiv.org/abs/2411.14718v1
- Date: Fri, 22 Nov 2024 04:10:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:02:21.883501
- Title: GraphTheft: Quantifying Privacy Risks in Graph Prompt Learning
- Title(参考訳): GraphTheft:グラフプロンプト学習におけるプライバシーリスクの定量化
- Authors: Jiani Zhu, Xi Lin, Yuxin Qi, Qinghua Mao,
- Abstract要約: Graph Prompt Learning(GPL)は、グラフ表現学習における革新的なアプローチであり、基礎となる事前学習モデルを変更することなく、プロンプトを微調整することでタスク固有の適応を可能にする。
人気の高まりにもかかわらず、PLに固有のプライバシーリスクは未解明のままである。
サービスとして機能する時のブラックボックス攻撃と、ノードの埋め込みとプロンプト表現がサードパーティにアクセス可能なシナリオだ。
- 参考スコア(独自算出の注目度): 1.2255617580795168
- License:
- Abstract: Graph Prompt Learning (GPL) represents an innovative approach in graph representation learning, enabling task-specific adaptations by fine-tuning prompts without altering the underlying pre-trained model. Despite its growing prominence, the privacy risks inherent in GPL remain unexplored. In this study, we provide the first evaluation of privacy leakage in GPL across three attacker capabilities: black-box attacks when GPL as a service, and scenarios where node embeddings and prompt representations are accessible to third parties. We assess GPL's privacy vulnerabilities through Attribute Inference Attacks (AIAs) and Link Inference Attacks (LIAs), finding that under any capability, attackers can effectively infer the properties and relationships of sensitive nodes, and the success rate of inference on some data sets is as high as 98%. Importantly, while targeted inference attacks on specific prompts (e.g., GPF-plus) maintain high success rates, our analysis suggests that the prompt-tuning in GPL does not significantly elevate privacy risks compared to traditional GNNs. To mitigate these risks, we explored defense mechanisms, identifying that Laplacian noise perturbation can substantially reduce inference success, though balancing privacy protection with model performance remains challenging. This work highlights critical privacy risks in GPL, offering new insights and foundational directions for future privacy-preserving strategies in graph learning.
- Abstract(参考訳): Graph Prompt Learning(GPL)は、グラフ表現学習における革新的なアプローチであり、基礎となる事前学習モデルを変更することなく、微調整プロンプトによってタスク固有の適応を可能にする。
人気が高まっているにもかかわらず、GPLに固有のプライバシーのリスクは未解決のままである。
本研究では,GPL をサービスとして使用する場合のブラックボックス攻撃と,ノードの埋め込みやプロンプト表現が第三者にアクセス可能なシナリオという,3つの攻撃機能に対して,GPL のプライバシリークを初めて評価する。
我々は、属性推論攻撃(AIA)とリンク推論攻撃(LIA)を通じてGPLのプライバシーの脆弱性を評価し、どんな能力でも攻撃者は、機密ノードの特性と関係を効果的に推測することができ、一部のデータセットでの推論の成功率は98%である。
重要なことは、特定のプロンプト(例えばGPF+)に対するターゲット推論攻撃は高い成功率を維持しているが、我々の分析はGPLの迅速な調整が従来のGNNと比べてプライバシーリスクを著しく高めるものではないことを示唆している。
これらのリスクを軽減するため、我々は防衛機構について検討し、ラプラシアンノイズの摂動が推論の成功を大幅に減少させるが、プライバシ保護とモデル性能のバランスをとることは困難である。
この研究はGPLにおける重要なプライバシーリスクを強調し、グラフ学習における将来のプライバシー保護戦略に対する新たな洞察と基礎的な方向性を提供する。
関連論文リスト
- Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - Cross-Context Backdoor Attacks against Graph Prompt Learning [33.06520915998661]
Graph Prompt Learning (GPL)は、実世界のグラフ学習における知識伝達ボトルネックを軽減するために、事前学習と下流アプリケーションの格差を埋める。
事前訓練されたモデルに埋め込まれた バックドアの中毒効果は ほとんど未発見のままだ
textitCrossBAは、ダウンストリームアプリケーションに関する知識を必要とせず、事前学習フェーズのみを操作する最初のクロスコンテキストバックドア攻撃である。
論文 参考訳(メタデータ) (2024-05-28T09:17:58Z) - GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models [3.0509197593879844]
本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
論文 参考訳(メタデータ) (2023-11-03T20:26:03Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Node Injection Link Stealing Attack [0.649970685896541]
グラフ構造化データ内のプライベートリンクを推測することにより、グラフニューラルネットワーク(GNN)のプライバシ脆弱性を露呈する、ステルスで効果的な攻撃を提案する。
我々の研究は、GNNに固有のプライバシの脆弱性を強調し、アプリケーションの堅牢なプライバシ保護メカニズムを開発することの重要性を強調しています。
論文 参考訳(メタデータ) (2023-07-25T14:51:01Z) - Quantifying and Defending against Privacy Threats on Federated Knowledge
Graph Embedding [27.003706269026097]
我々は、攻撃と防衛の両方の観点から、KGE(Knowledge Graph Embedding)におけるプライバシーの脅威に関する最初の総合的研究を行う。
この攻撃のために、我々は3つの新たな推論攻撃を提案し、プライバシーの脅威を定量化します。
本稿では,DP-Flamesを提案する。
論文 参考訳(メタデータ) (2023-04-06T08:44:49Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。