論文の概要: Prompt-based Unifying Inference Attack on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2412.15735v1
- Date: Fri, 20 Dec 2024 09:56:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:23:16.405350
- Title: Prompt-based Unifying Inference Attack on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワーク上でのプロンプトに基づく統一推論攻撃
- Authors: Yuecen Wei, Xingcheng Fu, Lingyun Liu, Qingyun Sun, Hao Peng, Chunming Hu,
- Abstract要約: グラフニューラルネットワーク(GNN)上での新規なPromptベースの統一推論攻撃フレームワークを提案する。
ProIAは、事前学習中にグラフの重要なトポロジ情報を保持し、推論攻撃モデルの背景知識を高める。
次に、統一的なプロンプトを利用し、ダウンストリームアタックにおいてタスク関連知識に適応するために、さらなる混乱要因を導入する。
- 参考スコア(独自算出の注目度): 24.85661326294946
- License:
- Abstract: Graph neural networks (GNNs) provide important prospective insights in applications such as social behavior analysis and financial risk analysis based on their powerful learning capabilities on graph data. Nevertheless, GNNs' predictive performance relies on the quality of task-specific node labels, so it is common practice to improve the model's generalization ability in the downstream execution of decision-making tasks through pre-training. Graph prompting is a prudent choice but risky without taking measures to prevent data leakage. In other words, in high-risk decision scenarios, prompt learning can infer private information by accessing model parameters trained on private data (publishing model parameters in pre-training, i.e., without directly leaking the raw data, is a tacitly accepted trend). However, myriad graph inference attacks necessitate tailored module design and processing to enhance inference capabilities due to variations in supervision signals. In this paper, we propose a novel Prompt-based unifying Inference Attack framework on GNNs, named ProIA. Specifically, ProIA retains the crucial topological information of the graph during pre-training, enhancing the background knowledge of the inference attack model. It then utilizes a unified prompt and introduces additional disentanglement factors in downstream attacks to adapt to task-relevant knowledge. Finally, extensive experiments show that ProIA enhances attack capabilities and demonstrates remarkable adaptability to various inference attacks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータ上の強力な学習能力に基づいて、社会的行動分析や金融リスク分析などのアプリケーションにおいて重要な洞察を提供する。
にもかかわらず、GNNの予測性能はタスク固有のノードラベルの品質に依存しているため、事前学習を通じて意思決定タスクの下流実行におけるモデルの一般化能力を改善することが一般的である。
グラフプロンプトは慎重な選択だが、データ漏洩を防ぐための対策を講じることなくリスクを冒す。
言い換えれば、リスクの高い意思決定シナリオでは、素早い学習は、プライベートデータで訓練されたモデルパラメータにアクセスすることで、プライベート情報を推論することができる(事前学習におけるモデルパラメータの公開は、生データを直接リークすることなく、暗黙的に受け入れられる傾向である)。
しかし、無数のグラフ推論は、監督信号のばらつきによる推論能力を高めるために、調整済みモジュールの設計と処理を必要とする。
本稿では,ProIA という名称の GNN 上での統一型推論攻撃フレームワーク Prompt を提案する。
具体的には、事前学習中にグラフの重要なトポロジ情報を保持し、推論攻撃モデルの背景知識を高める。
次に、統一的なプロンプトを利用し、ダウンストリームアタックにおいてタスク関連知識に適応するために、さらなる混乱要因を導入する。
最後に、広範囲な実験により、ProIAは攻撃能力を高め、様々な推論攻撃に対する顕著な適応性を示す。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - P3GNN: A Privacy-Preserving Provenance Graph-Based Model for APT Detection in Software Defined Networking [25.181087776375914]
本稿では,グラフ畳み込みネットワーク(GCN)とフェデレーション学習(FL)を相乗化する新しいモデルであるP3GNNを提案する。
P3GNNは教師なし学習を利用して、プロファイランスグラフ内の運用パターンを分析し、セキュリティ違反を示す偏差を識別する。
P3GNNの主なイノベーションは、前兆グラフ内のノードレベルで異常を検出する機能、攻撃軌跡の詳細なビューの提供、セキュリティ解析の強化である。
論文 参考訳(メタデータ) (2024-06-17T18:14:03Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - A Graph Data Augmentation Strategy with Entropy Preserving [11.886325179121226]
本稿では,グラフ間の特徴情報を評価するための定量的指標として,新しいグラフエントロピー定義を提案する。
グラフエントロピーの保存を考慮し、摂動機構を用いてトレーニングデータを生成する効果的な方法を提案する。
提案手法はトレーニング過程におけるGCNの堅牢性と一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-13T12:58:32Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。