論文の概要: Devil's Hand: Data Poisoning Attacks to Locally Private Graph Learning Protocols
- arxiv url: http://arxiv.org/abs/2506.09803v1
- Date: Wed, 11 Jun 2025 14:46:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.060808
- Title: Devil's Hand: Data Poisoning Attacks to Locally Private Graph Learning Protocols
- Title(参考訳): Devilの手 - ローカルにプライベートなグラフ学習プロトコルに対するデータポリシ攻撃
- Authors: Longzhu He, Chaozhuo Li, Peng Tang, Litian Zhang, Sen Su,
- Abstract要約: この研究は、ローカルなプライベートグラフ学習プロトコルをターゲットにした、最初のデータ中毒攻撃を導入している。
攻撃者は偽のユーザーをプロトコルに注入し、偽のユーザーを操作して本物のユーザーとリンクを確立する。
攻撃の有効性は理論的にも経験的にも示される。
- 参考スコア(独自算出の注目度): 15.954754012469877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have achieved significant success in graph representation learning and have been applied to various domains. However, many real-world graphs contain sensitive personal information, such as user profiles in social networks, raising serious privacy concerns when graph learning is performed using GNNs. To address this issue, locally private graph learning protocols have gained considerable attention. These protocols leverage the privacy advantages of local differential privacy (LDP) and the effectiveness of GNN's message-passing in calibrating noisy data, offering strict privacy guarantees for users' local data while maintaining high utility (e.g., node classification accuracy) for graph learning. Despite these advantages, such protocols may be vulnerable to data poisoning attacks, a threat that has not been considered in previous research. Identifying and addressing these threats is crucial for ensuring the robustness and security of privacy-preserving graph learning frameworks. This work introduces the first data poisoning attack targeting locally private graph learning protocols. The attacker injects fake users into the protocol, manipulates these fake users to establish links with genuine users, and sends carefully crafted data to the server, ultimately compromising the utility of private graph learning. The effectiveness of the attack is demonstrated both theoretically and empirically. In addition, several defense strategies have also been explored, but their limited effectiveness highlights the need for more robust defenses.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収め、さまざまな領域に適用されている。
しかし、多くの現実世界のグラフには、ソーシャルネットワークのユーザープロファイルのような機密性の高い個人情報が含まれており、GNNを使ってグラフ学習を行うと、深刻なプライバシー上の懸念が生じる。
この問題に対処するために、ローカルなプライベートグラフ学習プロトコルが注目されている。
これらのプロトコルは、ローカルディファレンシャルプライバシ(LDP)のプライバシー上の利点と、GNNのノイズデータの校正におけるメッセージパスの有効性を活用し、グラフ学習のための高ユーティリティ(ノード分類精度など)を維持しながら、ユーザのローカルデータに対して厳格なプライバシ保証を提供する。
これらの利点にもかかわらず、このようなプロトコルはデータ中毒の攻撃に弱い可能性がある。
これらの脅威を特定し、対処することは、プライバシを保存するグラフ学習フレームワークの堅牢性とセキュリティを保証するために不可欠である。
この研究は、ローカルなプライベートグラフ学習プロトコルをターゲットにした、最初のデータ中毒攻撃を導入している。
攻撃者は偽のユーザーをプロトコルに注入し、偽のユーザーを操作して本物のユーザーとリンクを確立する。
攻撃の有効性は理論的にも経験的にも示される。
さらに、いくつかの防衛戦略も検討されているが、その限定的な効果はより堅牢な防衛の必要性を浮き彫りにしている。
関連論文リスト
- DP-GPL: Differentially Private Graph Prompt Learning [8.885929731174492]
PATEフレームワークに基づく差分プライベートグラフプロンプト学習のためのDP-GPLを提案する。
当社のアルゴリズムは,高能率を高いプライバシーで実現し,プライバシーの懸念を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2025-03-13T16:58:07Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - NetFense: Adversarial Defenses against Privacy Attacks on Neural
Networks for Graph Data [10.609715843964263]
本稿では,GNNに基づくプライバシ攻撃に対する敵防衛という新たな研究課題を提案する。
目的を達成するために,グラフ摂動に基づくNetFenseを提案する。
論文 参考訳(メタデータ) (2021-06-22T15:32:50Z) - Adversarial Privacy Preserving Graph Embedding against Inference Attack [9.90348608491218]
グラフ埋め込みはグラフ構造化データから低次元の特徴表現を学習するのに非常に有用であることが証明されている。
既存のグラフ埋め込み手法は、推論攻撃を防ぐためのユーザのプライバシを考慮しない。
本稿では,学習ノード表現からユーザのプライベート情報を削除するためのアンタングルとパージ機構を統合したグラフ対向トレーニングフレームワークであるAdrial Privacy Graph Embedding (APGE)を提案する。
論文 参考訳(メタデータ) (2020-08-30T00:06:49Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。