論文の概要: Trojan Prompt Attacks on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2410.13974v1
- Date: Thu, 17 Oct 2024 18:57:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:25:29.280733
- Title: Trojan Prompt Attacks on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるトロイの木馬攻撃
- Authors: Minhua Lin, Zhiwei Zhang, Enyan Dai, Zongyu Wu, Yilong Wang, Xiang Zhang, Suhang Wang,
- Abstract要約: Graph Prompt Learning(GPL)は、トレーニング済みのGNNモデルを特定の下流タスクに適応するために、モデル全体を微調整することなくプロンプトを使用する、有望なアプローチとして導入された。
既存のグラフバックドア攻撃は、トレーニング中にモデルパラメータを変更することに依存しているが、GNNエンコーダパラメータが事前トレーニング後に凍結されるため、このアプローチは現実的ではない。
グラフプロンプトに特化して設計されたバックドアアタックフレームワークであるTGPAを提案する。
- 参考スコア(独自算出の注目度): 31.619718902838176
- License:
- Abstract: Graph Prompt Learning (GPL) has been introduced as a promising approach that uses prompts to adapt pre-trained GNN models to specific downstream tasks without requiring fine-tuning of the entire model. Despite the advantages of GPL, little attention has been given to its vulnerability to backdoor attacks, where an adversary can manipulate the model's behavior by embedding hidden triggers. Existing graph backdoor attacks rely on modifying model parameters during training, but this approach is impractical in GPL as GNN encoder parameters are frozen after pre-training. Moreover, downstream users may fine-tune their own task models on clean datasets, further complicating the attack. In this paper, we propose TGPA, a backdoor attack framework designed specifically for GPL. TGPA injects backdoors into graph prompts without modifying pre-trained GNN encoders and ensures high attack success rates and clean accuracy. To address the challenge of model fine-tuning by users, we introduce a finetuning-resistant poisoning approach that maintains the effectiveness of the backdoor even after downstream model adjustments. Extensive experiments on multiple datasets under various settings demonstrate the effectiveness of TGPA in compromising GPL models with fixed GNN encoders.
- Abstract(参考訳): Graph Prompt Learning(GPL)は、トレーニング済みのGNNモデルを特定の下流タスクに適応するために、モデル全体を微調整することなくプロンプトを使用する、有望なアプローチとして導入された。
GPLの利点にもかかわらず、バックドア攻撃に対する脆弱性にはほとんど注意が払われておらず、敵は隠れたトリガーを埋め込むことでモデルの振る舞いを操作できる。
既存のグラフバックドア攻撃は、トレーニング中にモデルパラメータを変更することに依存しているが、GNNエンコーダパラメータが事前トレーニング後に凍結されるため、GPLでは現実的ではない。
さらに、下流のユーザは、クリーンなデータセットで独自のタスクモデルを微調整し、さらに攻撃を複雑にすることができる。
本稿では,GPL に特化して設計されたバックドアアタックフレームワーク TGPA を提案する。
TGPAは、事前訓練されたGNNエンコーダを変更することなく、バックドアをグラフプロンプトに注入し、高い攻撃成功率とクリーンな精度を保証する。
ユーザによるモデル微調整の課題に対処するため,下流モデル調整後のバックドアの有効性を維持できる微調整耐性中毒アプローチを提案する。
各種設定下での多種多様なデータセットに対する大規模な実験は、固定GNNエンコーダを用いたGPLモデルの妥協において、TGPAの有効性を示す。
関連論文リスト
- "No Matter What You Do!": Mitigating Backdoor Attacks in Graph Neural Networks [33.07926413485209]
GNNのバックドア攻撃は、攻撃者がトリガーを埋め込むことでグラフデータの一部を修正したという事実にある。
GNNにおける最初のバックドア緩和手法であるGCleanerを提案する。
GCleanerは、クリーンデータのわずか1%でバックドア攻撃の成功率を10%に下げることができ、ほぼ無視できるモデル性能の低下がある。
論文 参考訳(メタデータ) (2024-10-02T06:30:49Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - A backdoor attack against link prediction tasks with graph neural
networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理可能なディープラーニングモデルのクラスである。
近年の研究では、GNNモデルがバックドア攻撃に弱いことが報告されている。
本稿では,GNNに基づくリンク予測タスクに対するバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-05T06:45:48Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - OCGEC: One-class Graph Embedding Classification for DNN Backdoor Detection [18.11795712499763]
本研究では,一クラスグラフ埋め込み分類(OCGEC)と呼ばれる新しい一クラス分類フレームワークを提案する。
OCGECは、少量のクリーンデータだけでモデルレベルのバックドア検出にGNNを使用する。
他のベースラインと比較して、AUCのスコアは、多くのタスクで98%以上である。
論文 参考訳(メタデータ) (2023-12-04T02:48:40Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。