論文の概要: Node Injection Link Stealing Attack
- arxiv url: http://arxiv.org/abs/2307.13548v1
- Date: Tue, 25 Jul 2023 14:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 16:37:32.935955
- Title: Node Injection Link Stealing Attack
- Title(参考訳): ノードインジェクションリンク盗み攻撃
- Authors: Oualid Zari, Javier Parra-Arnau, Ay\c{s}e \"Unsal, Melek \"Onen
- Abstract要約: グラフ構造化データ内のプライベートリンクを推測することにより、グラフニューラルネットワーク(GNN)のプライバシ脆弱性を露呈する、ステルスで効果的な攻撃を提案する。
我々の研究は、GNNに固有のプライバシの脆弱性を強調し、アプリケーションの堅牢なプライバシ保護メカニズムを開発することの重要性を強調しています。
- 参考スコア(独自算出の注目度): 0.649970685896541
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a stealthy and effective attack that exposes
privacy vulnerabilities in Graph Neural Networks (GNNs) by inferring private
links within graph-structured data. Focusing on the inductive setting where new
nodes join the graph and an API is used to query predictions, we investigate
the potential leakage of private edge information. We also propose methods to
preserve privacy while maintaining model utility. Our attack demonstrates
superior performance in inferring the links compared to the state of the art.
Furthermore, we examine the application of differential privacy (DP) mechanisms
to mitigate the impact of our proposed attack, we analyze the trade-off between
privacy preservation and model utility. Our work highlights the privacy
vulnerabilities inherent in GNNs, underscoring the importance of developing
robust privacy-preserving mechanisms for their application.
- Abstract(参考訳): 本稿では,グラフ構造化データ内のプライベートリンクを推定することにより,グラフニューラルネットワーク(GNN)のプライバシ脆弱性を明らかにする,ステルスで効果的な攻撃を提案する。
グラフに新しいノードが加わり、APIが予測をクエリするために使用される帰納的設定に着目し、プライベートエッジ情報の漏洩の可能性を検討する。
モデルユーティリティを維持しながらプライバシを保護する方法も提案する。
我々の攻撃は、最先端技術と比較してリンクを推測する上で優れた性能を示す。
さらに,提案する攻撃の影響を軽減するための差分プライバシー(dp)機構の適用について検討し,プライバシ保護とモデルユーティリティのトレードオフを分析した。
我々の研究は、GNNに固有のプライバシーの脆弱性を強調し、アプリケーションの堅牢なプライバシー保護メカニズムを開発することの重要性を強調しています。
関連論文リスト
- Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models [3.0509197593879844]
本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
論文 参考訳(メタデータ) (2023-11-03T20:26:03Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs [7.626349365968476]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークなどのグラフ上で表現を学習するための強力なツールである。
プライバシを保存するGNNは、ノードやリンクのプライバシの保護に重点を置いて提案されている。
本稿では,ノードとリンクの両方を効果的に保護するプライバシー保護型GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:46:43Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Unraveling Privacy Risks of Individual Fairness in Graph Neural Networks [66.0143583366533]
グラフニューラルネットワーク(GNN)は、その拡張現実の応用により、大きな注目を集めている。
信頼できるGNNを構築するためには、公平性とプライバシという2つの側面が重要な考慮事項として浮上している。
これまでの研究では、GNNの公平性とプライバシの側面を別々に検討し、GNNのパフォーマンスとのトレードオフを明らかにしている。
しかし、この2つの側面の相互作用は未解明のままである。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Releasing Graph Neural Networks with Differential Privacy Guarantees [0.81308403220442]
我々は,GNNモデルを集中的にリリースするためのプライバシ保護フレームワークであるPrivGNNを提案する。
PrivGNNは、知識蒸留フレームワークとランダムサブサンプリングとノイズラベリングという2つのノイズメカニズムを組み合わせることで、厳格なプライバシー保証を保証する。
論文 参考訳(メタデータ) (2021-09-18T11:35:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。