論文の概要: GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models
- arxiv url: http://arxiv.org/abs/2311.16139v1
- Date: Fri, 3 Nov 2023 20:26:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-03 13:16:18.910442
- Title: GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models
- Title(参考訳): GNNBleed: GNNモデルに現実的にアクセス可能なグラフでプライベートエッジを公開する推論攻撃
- Authors: Zeyu Song and Ehsanul Kabir and Shagufta Mehnaz
- Abstract要約: 本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
- 参考スコア(独自算出の注目度): 3.0509197593879844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have increasingly become an indispensable tool
in learning from graph-structured data, catering to various applications
including social network analysis, recommendation systems, etc. At the heart of
these networks are the edges which are crucial in guiding GNN models'
predictions. In many scenarios, these edges represent sensitive information,
such as personal associations or financial dealings -- thus requiring privacy
assurance. However, their contributions to GNN model predictions may in turn be
exploited by the adversary to compromise their privacy. Motivated by these
conflicting requirements, this paper investigates edge privacy in contexts
where adversaries possess black-box GNN model access, restricted further by
access controls, preventing direct insights into arbitrary node outputs. In
this context, we introduce a series of privacy attacks grounded on the
message-passing mechanism of GNNs. These strategies allow adversaries to deduce
connections between two nodes not by directly analyzing the model's output for
these pairs but by analyzing the output for nodes linked to them. Our
evaluation with seven real-life datasets and four GNN architectures underlines
a significant vulnerability: even in systems fortified with access control
mechanisms, an adaptive adversary can decipher private connections between
nodes, thereby revealing potentially sensitive relationships and compromising
the confidentiality of the graph.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は,グラフ構造化データから学習し,ソーシャルネットワーク分析やレコメンデーションシステムなど,さまざまなアプリケーションに対応する上で不可欠なツールになりつつある。
これらのネットワークの中心は、GNNモデルの予測を導く上で重要なエッジである。
多くのシナリオでは、これらのエッジは個人関係や金融取引などの機密情報を表現している。
しかし、GNNモデル予測への彼らの貢献は、敵のプライバシーを侵害するために悪用される可能性がある。
これらの矛盾する要件に動機づけられた本論文は、敵がブラックボックスgnnモデルアクセスを持つコンテキストにおいて、アクセス制御によってさらに制限されたエッジプライバシを調査し、任意のノード出力に対する直接的洞察を防止する。
本稿では,GNNのメッセージパス機構に基づく一連のプライバシー攻撃を紹介する。
これらの戦略により、敵は2つのノード間の接続を推測することができ、モデルの出力を直接分析するのではなく、それらに接続されたノードの出力を分析することができる。
アクセス制御機構が強化されたシステムであっても、適応的敵はノード間のプライベートな接続を解読し、潜在的に敏感な関係を明らかにし、グラフの機密性を妥協することができる。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs [7.626349365968476]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークなどのグラフ上で表現を学習するための強力なツールである。
プライバシを保存するGNNは、ノードやリンクのプライバシの保護に重点を置いて提案されている。
本稿では,ノードとリンクの両方を効果的に保護するプライバシー保護型GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:46:43Z) - A Unified Framework of Graph Information Bottleneck for Robustness and
Membership Privacy [43.11374582152925]
グラフニューラルネットワーク(GNN)は,グラフ構造化データのモデリングにおいて大きな成功を収めている。
GNNは、GNNモデルを騙して望ましい予測をする敵攻撃に対して脆弱である。
本研究では、ロバストかつメンバーシップなプライバシー保護型GNNを開発するための新しい課題について検討する。
論文 参考訳(メタデータ) (2023-06-14T16:11:00Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。