論文の概要: Large Language Models for Link Stealing Attacks Against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2406.16963v1
- Date: Sat, 22 Jun 2024 02:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 19:10:10.497218
- Title: Large Language Models for Link Stealing Attacks Against Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークに対するリンクステアリング攻撃のための大規模言語モデル
- Authors: Faqian Guan, Tianqing Zhu, Hui Sun, Wanlei Zhou, Philip S. Yu,
- Abstract要約: グラフニューラルネットワーク(GNN)におけるリンク盗難攻撃を行うために,Large Language Models (LLMs)を導入している。
LLMはテキスト機能を効果的に統合し、強力な一般化性を示し、様々なデータセットにわたる多様なデータ次元を攻撃で処理することができる。
提案手法は,ホワイトボックスとブラックボックスの両方のシナリオにおいて,既存のリンク盗難攻撃タスクの性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 43.14042095143309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph data contains rich node features and unique edge information, which have been applied across various domains, such as citation networks or recommendation systems. Graph Neural Networks (GNNs) are specialized for handling such data and have shown impressive performance in many applications. However, GNNs may contain of sensitive information and susceptible to privacy attacks. For example, link stealing is a type of attack in which attackers infer whether two nodes are linked or not. Previous link stealing attacks primarily relied on posterior probabilities from the target GNN model, neglecting the significance of node features. Additionally, variations in node classes across different datasets lead to different dimensions of posterior probabilities. The handling of these varying data dimensions posed a challenge in using a single model to effectively conduct link stealing attacks on different datasets. To address these challenges, we introduce Large Language Models (LLMs) to perform link stealing attacks on GNNs. LLMs can effectively integrate textual features and exhibit strong generalizability, enabling attacks to handle diverse data dimensions across various datasets. We design two distinct LLM prompts to effectively combine textual features and posterior probabilities of graph nodes. Through these designed prompts, we fine-tune the LLM to adapt to the link stealing attack task. Furthermore, we fine-tune the LLM using multiple datasets and enable the LLM to learn features from different datasets simultaneously. Experimental results show that our approach significantly enhances the performance of existing link stealing attack tasks in both white-box and black-box scenarios. Our method can execute link stealing attacks across different datasets using only a single model, making link stealing attacks more applicable to real-world scenarios.
- Abstract(参考訳): グラフデータには、引用ネットワークやレコメンデーションシステムなど、さまざまな領域に適用される、豊富なノードの特徴とユニークなエッジ情報が含まれている。
グラフニューラルネットワーク(GNN)はそのようなデータを扱うのに特化しており、多くのアプリケーションで顕著なパフォーマンスを示している。
しかし、GNNには機密情報が含まれており、プライバシー攻撃の影響を受けやすい可能性がある。
例えば、リンク盗難は、攻撃者が2つのノードがリンクされているかどうかを推測する攻撃の一種である。
以前のリンク盗難攻撃は、主にターゲットのGNNモデルからの後方確率に依存しており、ノードの特徴の重要性を無視していた。
さらに、異なるデータセットにわたるノードクラスの変動は、後続確率の異なる次元をもたらす。
これらのさまざまなデータ次元の扱いは、単一のモデルを使用して異なるデータセットに対するリンク盗難攻撃を効果的に実行する上で、課題となった。
これらの課題に対処するため、GNNに対するリンク盗難攻撃を行うために、LLM(Large Language Models)を導入する。
LLMはテキスト機能を効果的に統合し、強力な一般化性を示し、様々なデータセットにわたる多様なデータ次元を攻撃で処理することができる。
グラフノードのテキスト特徴と後部確率を効果的に組み合わせる2つの異なるLCMプロンプトを設計する。
これらのプロンプトを通じて、リンク盗難攻撃タスクに対応するためにLLMを微調整する。
さらに,複数のデータセットを用いてLLMを微調整し,異なるデータセットからの特徴を同時に学習することを可能にする。
実験の結果,提案手法は,ホワイトボックスとブラックボックスの両方のシナリオにおいて,既存のリンク盗難攻撃タスクの性能を大幅に向上させることが示された。
提案手法は,1つのモデルのみを用いて,異なるデータセットをまたいだリンク盗難攻撃を実行し,リンク盗難攻撃をより現実のシナリオに適用することができる。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Graph-Fraudster: Adversarial Attacks on Graph Neural Network Based
Vertical Federated Learning [2.23816711660697]
グローバルモデルをトレーニングすることで,局所的なデータ保護を実現するために,垂直連合学習(VFL)を提案する。
グラフ構造データの場合、GNNモデルを用いてVFLフレームワークを構築することは自然な考え方である。
GNNモデルは敵の攻撃に弱いことが証明されている。
本稿では,GVFLが,集中型GNNモデルと同様の敵攻撃に対して脆弱であることを明らかにする。
論文 参考訳(メタデータ) (2021-10-13T03:06:02Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。