論文の概要: Large Language Models for Link Stealing Attacks Against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2406.16963v1
- Date: Sat, 22 Jun 2024 02:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 19:10:10.497218
- Title: Large Language Models for Link Stealing Attacks Against Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークに対するリンクステアリング攻撃のための大規模言語モデル
- Authors: Faqian Guan, Tianqing Zhu, Hui Sun, Wanlei Zhou, Philip S. Yu,
- Abstract要約: グラフニューラルネットワーク(GNN)におけるリンク盗難攻撃を行うために,Large Language Models (LLMs)を導入している。
LLMはテキスト機能を効果的に統合し、強力な一般化性を示し、様々なデータセットにわたる多様なデータ次元を攻撃で処理することができる。
提案手法は,ホワイトボックスとブラックボックスの両方のシナリオにおいて,既存のリンク盗難攻撃タスクの性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 43.14042095143309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph data contains rich node features and unique edge information, which have been applied across various domains, such as citation networks or recommendation systems. Graph Neural Networks (GNNs) are specialized for handling such data and have shown impressive performance in many applications. However, GNNs may contain of sensitive information and susceptible to privacy attacks. For example, link stealing is a type of attack in which attackers infer whether two nodes are linked or not. Previous link stealing attacks primarily relied on posterior probabilities from the target GNN model, neglecting the significance of node features. Additionally, variations in node classes across different datasets lead to different dimensions of posterior probabilities. The handling of these varying data dimensions posed a challenge in using a single model to effectively conduct link stealing attacks on different datasets. To address these challenges, we introduce Large Language Models (LLMs) to perform link stealing attacks on GNNs. LLMs can effectively integrate textual features and exhibit strong generalizability, enabling attacks to handle diverse data dimensions across various datasets. We design two distinct LLM prompts to effectively combine textual features and posterior probabilities of graph nodes. Through these designed prompts, we fine-tune the LLM to adapt to the link stealing attack task. Furthermore, we fine-tune the LLM using multiple datasets and enable the LLM to learn features from different datasets simultaneously. Experimental results show that our approach significantly enhances the performance of existing link stealing attack tasks in both white-box and black-box scenarios. Our method can execute link stealing attacks across different datasets using only a single model, making link stealing attacks more applicable to real-world scenarios.
- Abstract(参考訳): グラフデータには、引用ネットワークやレコメンデーションシステムなど、さまざまな領域に適用される、豊富なノードの特徴とユニークなエッジ情報が含まれている。
グラフニューラルネットワーク(GNN)はそのようなデータを扱うのに特化しており、多くのアプリケーションで顕著なパフォーマンスを示している。
しかし、GNNには機密情報が含まれており、プライバシー攻撃の影響を受けやすい可能性がある。
例えば、リンク盗難は、攻撃者が2つのノードがリンクされているかどうかを推測する攻撃の一種である。
以前のリンク盗難攻撃は、主にターゲットのGNNモデルからの後方確率に依存しており、ノードの特徴の重要性を無視していた。
さらに、異なるデータセットにわたるノードクラスの変動は、後続確率の異なる次元をもたらす。
これらのさまざまなデータ次元の扱いは、単一のモデルを使用して異なるデータセットに対するリンク盗難攻撃を効果的に実行する上で、課題となった。
これらの課題に対処するため、GNNに対するリンク盗難攻撃を行うために、LLM(Large Language Models)を導入する。
LLMはテキスト機能を効果的に統合し、強力な一般化性を示し、様々なデータセットにわたる多様なデータ次元を攻撃で処理することができる。
グラフノードのテキスト特徴と後部確率を効果的に組み合わせる2つの異なるLCMプロンプトを設計する。
これらのプロンプトを通じて、リンク盗難攻撃タスクに対応するためにLLMを微調整する。
さらに,複数のデータセットを用いてLLMを微調整し,異なるデータセットからの特徴を同時に学習することを可能にする。
実験の結果,提案手法は,ホワイトボックスとブラックボックスの両方のシナリオにおいて,既存のリンク盗難攻撃タスクの性能を大幅に向上させることが示された。
提案手法は,1つのモデルのみを用いて,異なるデータセットをまたいだリンク盗難攻撃を実行し,リンク盗難攻撃をより現実のシナリオに適用することができる。
関連論文リスト
- GRID: Protecting Training Graph from Link Stealing Attacks on GNN Models [32.513071094162726]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上の様々な分類タスクにおいて優れた性能を示した。
リンク盗難攻撃は、GNNモデルで使用されるトレーニンググラフに深刻なセキュリティとプライバシの脅威をもたらす。
本稿では,リンク盗難攻撃を防止すべく,GRID(Graph Link Disguise)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-19T08:39:22Z) - Attack-in-the-Chain: Bootstrapping Large Language Models for Attacks Against Black-box Neural Ranking Models [111.58315434849047]
本稿では,アタック・イン・ザ・チェーン(Attack-in-the-Chain)という新しいランキングアタックフレームワークを紹介する。
大型言語モデル(LLMs)とニューラルランキングモデル(NRMs)の相互作用をチェーン・オブ・ソートに基づいて追跡する。
2つのWeb検索ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-25T04:03:09Z) - Large Language Models Merging for Enhancing the Link Stealing Attack on Graph Neural Networks [10.807912659961012]
グラフデータに対するリンク盗難攻撃は、重大なプライバシー上の脅威となる。
攻撃者は複数の攻撃者のデータ知識を組み合わせることで、より効果的な攻撃モデルを構築することができる。
本稿では,クロスデータセットと大規模言語モデルを利用したリンク盗難攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-12-08T06:37:05Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。