論文の概要: Large Language Models Merging for Enhancing the Link Stealing Attack on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2412.05830v1
- Date: Sun, 08 Dec 2024 06:37:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:56:10.698891
- Title: Large Language Models Merging for Enhancing the Link Stealing Attack on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるリンクステアリング攻撃の強化のための大言語モデルの統合
- Authors: Faqian Guan, Tianqing Zhu, Wenhan Chang, Wei Ren, Wanlei Zhou,
- Abstract要約: グラフデータに対するリンク盗難攻撃は、重大なプライバシー上の脅威となる。
攻撃者は複数の攻撃者のデータ知識を組み合わせることで、より効果的な攻撃モデルを構築することができる。
本稿では,クロスデータセットと大規模言語モデルを利用したリンク盗難攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 10.807912659961012
- License:
- Abstract: Graph Neural Networks (GNNs), specifically designed to process the graph data, have achieved remarkable success in various applications. Link stealing attacks on graph data pose a significant privacy threat, as attackers aim to extract sensitive relationships between nodes (entities), potentially leading to academic misconduct, fraudulent transactions, or other malicious activities. Previous studies have primarily focused on single datasets and did not explore cross-dataset attacks, let alone attacks that leverage the combined knowledge of multiple attackers. However, we find that an attacker can combine the data knowledge of multiple attackers to create a more effective attack model, which can be referred to cross-dataset attacks. Moreover, if knowledge can be extracted with the help of Large Language Models (LLMs), the attack capability will be more significant. In this paper, we propose a novel link stealing attack method that takes advantage of cross-dataset and Large Language Models (LLMs). The LLM is applied to process datasets with different data structures in cross-dataset attacks. Each attacker fine-tunes the LLM on their specific dataset to generate a tailored attack model. We then introduce a novel model merging method to integrate the parameters of these attacker-specific models effectively. The result is a merged attack model with superior generalization capabilities, enabling effective attacks not only on the attackers' datasets but also on previously unseen (out-of-domain) datasets. We conducted extensive experiments in four datasets to demonstrate the effectiveness of our method. Additional experiments with three different GNN and LLM architectures further illustrate the generality of our approach.
- Abstract(参考訳): グラフデータを処理するように設計されたグラフニューラルネットワーク(GNN)は、様々なアプリケーションで顕著な成功を収めている。
グラフデータへのリンク盗難攻撃は、ノード(エンティティ)間のセンシティブな関係を抽出することを目的としており、学術的な不正行為や不正取引、その他の悪意ある行為につながる可能性があるため、重大なプライバシー上の脅威となる。
これまでの研究は主に単一のデータセットに重点を置いてきたが、複数のアタッカーの知識を組み合わせた攻撃だけでなく、クロスデータセット攻撃も調査しなかった。
しかし、攻撃者は複数の攻撃者のデータ知識を組み合わせることで、より効果的な攻撃モデルを作ることができる。
さらに、Large Language Models (LLM) の助けを借りて知識を抽出できれば、攻撃能力はより重要になるだろう。
本稿では,クロスデータセットとLarge Language Models(LLM)を利用したリンク盗難攻撃手法を提案する。
LLMは、クロスデータセット攻撃において、異なるデータ構造を持つデータセットを処理するために適用される。
各攻撃者は、それぞれのデータセットにLSMを微調整して、調整された攻撃モデルを生成する。
次に,攻撃者固有のモデルのパラメータを効果的に統合する新しいモデルマージ手法を提案する。
その結果、より優れた一般化機能を備えたマージアタックモデルとなり、攻撃者のデータセットだけでなく、これまで見えなかった(ドメイン外)データセットでも効果的なアタックが可能になる。
提案手法の有効性を実証するために,4つのデータセットで広範な実験を行った。
3つの異なるGNNおよびLLMアーキテクチャによる追加実験は、我々のアプローチの一般化をさらに示している。
関連論文リスト
- Large Language Models for Link Stealing Attacks Against Graph Neural Networks [43.14042095143309]
グラフニューラルネットワーク(GNN)におけるリンク盗難攻撃を行うために,Large Language Models (LLMs)を導入している。
LLMはテキスト機能を効果的に統合し、強力な一般化性を示し、様々なデータセットにわたる多様なデータ次元を攻撃で処理することができる。
提案手法は,ホワイトボックスとブラックボックスの両方のシナリオにおいて,既存のリンク盗難攻撃タスクの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-22T02:47:24Z) - Susceptibility of Adversarial Attack on Medical Image Segmentation
Models [0.0]
我々は,MRIデータセット上で訓練したセグメンテーションモデルに対する敵攻撃の効果について検討した。
医療画像のセグメンテーションモデルは、実際に敵の攻撃に対して脆弱であることがわかった。
トレーニングで使用するものと異なる損失関数を用いることで,高い敵攻撃効果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-20T12:52:20Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - A Plot is Worth a Thousand Words: Model Information Stealing Attacks via
Scientific Plots [14.998272283348152]
敵がターゲットのMLモデルの出力を利用してモデルの情報を盗むことはよく知られている。
我々は、モデル情報盗難攻撃、すなわちモデルの科学的プロットのための新しいサイドチャネルを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:57:34Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。