論文の概要: DM4Steal: Diffusion Model For Link Stealing Attack On Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2411.03364v1
- Date: Tue, 05 Nov 2024 06:54:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:23:40.103167
- Title: DM4Steal: Diffusion Model For Link Stealing Attack On Graph Neural Networks
- Title(参考訳): DM4Steal:グラフニューラルネットワーク上のリンクステアリング攻撃のための拡散モデル
- Authors: Jinyin Chen, Haonan Ma, Haibin Zheng,
- Abstract要約: これまでの研究によると、悪意のあるユーザは補助的な知識を利用して、ターゲットグラフのセンシティブなリンクデータを抽出することができた。
これはレコメンデーションシステムで使用されるデータの完全性と機密性に重大なリスクをもたらす。
本稿では,拡散モデルに基づくリンク盗難攻撃,DM4Stealを提案する。
- 参考スコア(独自算出の注目度): 3.339975415342309
- License:
- Abstract: Graph has become increasingly integral to the advancement of recommendation systems, particularly with the fast development of graph neural network(GNN). By exploring the virtue of rich node features and link information, GNN is designed to provide personalized and accurate suggestions. Meanwhile, the privacy leakage of GNN in such contexts has also captured special attention. Prior work has revealed that a malicious user can utilize auxiliary knowledge to extract sensitive link data of the target graph, integral to recommendation systems, via the decision made by the target GNN model. This poses a significant risk to the integrity and confidentiality of data used in recommendation system. Though important, previous works on GNN's privacy leakage are still challenged in three aspects, i.e., limited stealing attack scenarios, sub-optimal attack performance, and adaptation against defense. To address these issues, we propose a diffusion model based link stealing attack, named DM4Steal. It differs previous work from three critical aspects. (i) Generality: aiming at six attack scenarios with limited auxiliary knowledge, we propose a novel training strategy for diffusion models so that DM4Steal is transferable to diverse attack scenarios. (ii) Effectiveness: benefiting from the retention of semantic structure in the diffusion model during the training process, DM4Steal is capable to learn the precise topology of the target graph through the GNN decision process. (iii) Adaptation: when GNN is defensive (e.g., DP, Dropout), DM4Steal relies on the stability that comes from sampling the score model multiple times to keep performance degradation to a minimum, thus DM4Steal implements successful adaptive attack on defensive GNN.
- Abstract(参考訳): グラフはレコメンデーションシステムの進歩、特にグラフニューラルネットワーク(GNN)の急速な発展にますます不可欠なものになっている。
リッチなノード機能とリンク情報により、GNNはパーソナライズされた正確な提案を提供するように設計されている。
一方、そのような文脈におけるGNNのプライバシー漏洩も特に注目を集めている。
従来の研究によると、悪意のあるユーザは、ターゲットGNNモデルによる決定により、ターゲットグラフの機密リンクデータを抽出し、レコメンデーションシステムに統合することができる。
これはレコメンデーションシステムで使用されるデータの完全性と機密性に重大なリスクをもたらす。
重要なことはあるものの、GNNのプライバシー漏洩に関する以前の研究は、制限された盗難攻撃シナリオ、準最適攻撃性能、防衛に対する適応という3つの側面で未だに挑戦されている。
これらの問題に対処するために,DM4Stealという拡散モデルに基づくリンク盗難攻撃を提案する。
以前の作品と3つの重要な側面が異なっている。
一般性: 限られた補助知識を持つ6つの攻撃シナリオを対象として,DM4Stealが多様な攻撃シナリオに転送可能であるように,拡散モデルの新たな訓練戦略を提案する。
2) 実効性: 訓練過程における拡散モデルにおける意味構造の保持により, DM4Stealは, GNN決定過程を通じて, 対象グラフの正確なトポロジを学習することができる。
適応:GNNが防御的(例えば、DP、Dropout)である場合、DM4Stealは、スコアモデルを複数回サンプリングしてパフォーマンス劣化を最小限に抑えることで生じる安定性に依存し、DM4Stealは防御的GNNへの適応攻撃を成功させる。
関連論文リスト
- Backdoor Attack on Vertical Federated Graph Neural Network Learning [6.540725813096829]
Federated Graph Neural Network (FedGNN)は、フェデレーション学習(FL)とグラフニューラルネットワーク(GNN)を組み合わせた、プライバシ保護機械学習技術である。
垂直フェデレーショングラフニューラルネットワーク(VFGNN)はFedGNNの重要なブランチであり、データ機能とラベルが参加者間で分散される。
分散データやラベルへのアクセスや変更が難しいため、バックドアアタックに対するVFGNNの脆弱性はほとんど解明されていない。
VFGNNにおけるバックドア攻撃の最初の方法であるBVGを提案する。ラベルへのアクセスや変更なしに、BVGはマルチホップトリガを使用し、4つしか必要としない。
論文 参考訳(メタデータ) (2024-10-15T05:26:20Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - On Strengthening and Defending Graph Reconstruction Attack with Markov
Chain Approximation [40.21760151203987]
本研究は,ノードの隣接性を再構築することを目的としたグラフ再構成攻撃の総合的研究である。
我々は、GNNにおける様々な要因が、驚くほどのプライベートリンクの漏洩につながることを示している。
そこで我々は,(1)よりプライベートな情報を抽出する適応設計のチェーンベース攻撃法,(2)精度の低い攻撃忠実度を鋭く低減するチェーンベース防御法,という2つの情報理論誘導機構を提案する。
論文 参考訳(メタデータ) (2023-06-15T13:00:56Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。