論文の概要: Data Poisoning Attacks to Local Differential Privacy Protocols for Graphs
- arxiv url: http://arxiv.org/abs/2412.19837v1
- Date: Mon, 23 Dec 2024 11:16:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 09:06:39.406142
- Title: Data Poisoning Attacks to Local Differential Privacy Protocols for Graphs
- Title(参考訳): グラフのローカル差分プライバシープロトコルに対するデータポリシ攻撃
- Authors: Xi He, Kai Huang, Qingqing Ye, Haibo Hu,
- Abstract要約: 本稿では,攻撃者がグラフのローカル差分プライバシープロトコルに偽ユーザを注入し,データ中毒攻撃を設計することにより,グラフメトリクスの品質を低下させることができることを示す。
概念実証として,2つの古典グラフ指標,次数集中度とクラスタリング係数に対するデータ中毒攻撃に着目した。
実世界のデータセットに関する実験的研究は、我々の攻撃が収集したグラフメトリクスデータセットの品質を大幅に低下させることができることを示した。
- 参考スコア(独自算出の注目度): 12.565077847109974
- License:
- Abstract: Graph analysis has become increasingly popular with the prevalence of big data and machine learning. Traditional graph data analysis methods often assume the existence of a trusted third party to collect and store the graph data, which does not align with real-world situations. To address this, some research has proposed utilizing Local Differential Privacy (LDP) to collect graph data or graph metrics (e.g., clustering coefficient). This line of research focuses on collecting two atomic graph metrics (the adjacency bit vectors and node degrees) from each node locally under LDP to synthesize an entire graph or generate graph metrics. However, they have not considered the security issues of LDP for graphs. In this paper, we bridge the gap by demonstrating that an attacker can inject fake users into LDP protocols for graphs and design data poisoning attacks to degrade the quality of graph metrics. In particular, we present three data poisoning attacks to LDP protocols for graphs. As a proof of concept, we focus on data poisoning attacks on two classical graph metrics: degree centrality and clustering coefficient. We further design two countermeasures for these data poisoning attacks. Experimental study on real-world datasets demonstrates that our attacks can largely degrade the quality of collected graph metrics, and the proposed countermeasures cannot effectively offset the effect, which calls for the development of new defenses.
- Abstract(参考訳): ビッグデータや機械学習の普及により、グラフ分析はますます人気が高まっている。
従来のグラフデータ分析手法では、信頼された第三者がグラフデータを収集して保存していると仮定することが多いが、これは現実の状況と一致しない。
これを解決するために、グラフデータやグラフメトリクス(例えばクラスタリング係数)の収集にローカル微分プライバシー(LDP)を利用することを提案する研究もある。
この一連の研究は、グラフ全体の合成やグラフメトリクスの生成のために、それぞれのノードから2つの原子グラフメトリクス(隣接ビットベクトルとノード次数)を LDP の下で局所的に収集することに焦点を当てている。
しかし、彼らはグラフの LDP のセキュリティ問題を考慮していない。
本稿では,攻撃者がグラフ用LPPプロトコルに偽ユーザを注入し,データ中毒攻撃を設計し,グラフメトリクスの品質を低下させることで,そのギャップを埋める。
特に,グラフ用LPPプロトコルに対する3つのデータ中毒攻撃について述べる。
概念実証として,2つの古典グラフ指標,次数集中度とクラスタリング係数に対するデータ中毒攻撃に着目した。
さらに、これらのデータ中毒攻撃に対する2つの対策を設計する。
実世界のデータセットに関する実験的研究により、我々の攻撃は収集されたグラフの指標の質を大幅に低下させることができることが示され、提案した対策は効果を効果的に相殺することができず、新たな防御の開発が要求される。
関連論文リスト
- DPGAN: A Dual-Path Generative Adversarial Network for Missing Data Imputation in Graphs [17.847551850315895]
本稿では,DPGAN(Dual-Pathrative Adversarial Network)と呼ばれる新しいフレームワークを提案する。
DPGANは、欠落したデータと同時に処理し、過度にスムースな問題を回避することができる。
さまざまなベンチマークデータセットにわたる総合的な実験は、DPGANが既存の最先端の計算アルゴリズムよりも優れていなくても、一貫して競合していることを裏付けている。
論文 参考訳(メタデータ) (2024-04-26T05:26:10Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Crypto'Graph: Leveraging Privacy-Preserving Distributed Link Prediction
for Robust Graph Learning [2.048226951354646]
Crypto'Graphは、分散グラフ上のプライバシ保護リンク予測のための効率的なプロトコルである。
グラフ中毒攻撃に対する防御のために図示されており、個々のパーティのグラフのプライバシーを損なうことなく、潜在的に敵対的なリンクを特定することができる。
論文 参考訳(メタデータ) (2023-09-19T19:30:28Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。