論文の概要: Cross-Context Backdoor Attacks against Graph Prompt Learning
- arxiv url: http://arxiv.org/abs/2405.17984v1
- Date: Tue, 28 May 2024 09:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 19:28:09.149887
- Title: Cross-Context Backdoor Attacks against Graph Prompt Learning
- Title(参考訳): グラフプロンプト学習に対するクロスコンテキストバックドアアタック
- Authors: Xiaoting Lyu, Yufei Han, Wei Wang, Hangwei Qian, Ivor Tsang, Xiangliang Zhang,
- Abstract要約: Graph Prompt Learning (GPL)は、実世界のグラフ学習における知識伝達ボトルネックを軽減するために、事前学習と下流アプリケーションの格差を埋める。
事前訓練されたモデルに埋め込まれた バックドアの中毒効果は ほとんど未発見のままだ
textitCrossBAは、ダウンストリームアプリケーションに関する知識を必要とせず、事前学習フェーズのみを操作する最初のクロスコンテキストバックドア攻撃である。
- 参考スコア(独自算出の注目度): 33.06520915998661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Prompt Learning (GPL) bridges significant disparities between pretraining and downstream applications to alleviate the knowledge transfer bottleneck in real-world graph learning. While GPL offers superior effectiveness in graph knowledge transfer and computational efficiency, the security risks posed by backdoor poisoning effects embedded in pretrained models remain largely unexplored. Our study provides a comprehensive analysis of GPL's vulnerability to backdoor attacks. We introduce \textit{CrossBA}, the first cross-context backdoor attack against GPL, which manipulates only the pretraining phase without requiring knowledge of downstream applications. Our investigation reveals both theoretically and empirically that tuning trigger graphs, combined with prompt transformations, can seamlessly transfer the backdoor threat from pretrained encoders to downstream applications. Through extensive experiments involving 3 representative GPL methods across 5 distinct cross-context scenarios and 5 benchmark datasets of node and graph classification tasks, we demonstrate that \textit{CrossBA} consistently achieves high attack success rates while preserving the functionality of downstream applications over clean input. We also explore potential countermeasures against \textit{CrossBA} and conclude that current defenses are insufficient to mitigate \textit{CrossBA}. Our study highlights the persistent backdoor threats to GPL systems, raising trustworthiness concerns in the practices of GPL techniques.
- Abstract(参考訳): Graph Prompt Learning (GPL)は、実世界のグラフ学習における知識伝達ボトルネックを軽減するために、事前学習と下流アプリケーションの間の大きな格差を埋める。
GPLは、グラフ知識の伝達と計算効率において優れた効果をもたらすが、事前訓練されたモデルに埋め込まれたバックドア中毒の影響によるセキュリティリスクは、ほとんど未解明のままである。
我々の研究は、GPLのバックドア攻撃に対する脆弱性を包括的に分析する。
本稿では,GPL に対する最初のクロスコンテキストバックドア攻撃である \textit{CrossBA} を紹介する。
我々の研究は、チューニングトリガグラフと迅速な変換を組み合わせることで、事前訓練されたエンコーダから下流アプリケーションへのバックドア脅威をシームレスに転送できることを理論的および実証的に明らかにしている。
5つの異なるクロスコンテキストシナリオと5つのベンチマークデータセットのノードとグラフの分類タスクにまたがる3つの代表的なGPLメソッドに関する広範な実験を通じて、クリーンな入力よりも下流アプリケーションの機能を保ちながら、 \textit{CrossBA} が常に高い攻撃成功率を達成することを示した。
また, 現状の防衛策は, textit{CrossBA} を緩和するには不十分であると結論づける。
本研究は,GPL システムに対する持続的なバックドアの脅威を強調し,GPL 技術の実践における信頼性の懸念を提起する。
関連論文リスト
- GraphTheft: Quantifying Privacy Risks in Graph Prompt Learning [1.2255617580795168]
Graph Prompt Learning(GPL)は、グラフ表現学習における革新的なアプローチであり、基礎となる事前学習モデルを変更することなく、プロンプトを微調整することでタスク固有の適応を可能にする。
人気の高まりにもかかわらず、PLに固有のプライバシーリスクは未解明のままである。
サービスとして機能する時のブラックボックス攻撃と、ノードの埋め込みとプロンプト表現がサードパーティにアクセス可能なシナリオだ。
論文 参考訳(メタデータ) (2024-11-22T04:10:49Z) - Trojan Prompt Attacks on Graph Neural Networks [31.619718902838176]
Graph Prompt Learning(GPL)は、トレーニング済みのGNNモデルを特定の下流タスクに適応するために、モデル全体を微調整することなくプロンプトを使用する、有望なアプローチとして導入された。
既存のグラフバックドア攻撃は、トレーニング中にモデルパラメータを変更することに依存しているが、GNNエンコーダパラメータが事前トレーニング後に凍結されるため、このアプローチは現実的ではない。
グラフプロンプトに特化して設計されたバックドアアタックフレームワークであるTGPAを提案する。
論文 参考訳(メタデータ) (2024-10-17T18:57:27Z) - Revisiting Backdoor Attacks against Large Vision-Language Models [76.42014292255944]
本稿では,LVLMの命令チューニングにおけるバックドア攻撃の一般化可能性について実験的に検討する。
以上に基づいて,既存のバックドア攻撃を修正した。
本稿では,従来のシンプルなバックドア戦略でさえ,LVLMに深刻な脅威をもたらすことを指摘する。
論文 参考訳(メタデータ) (2024-06-27T02:31:03Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - DSHGT: Dual-Supervisors Heterogeneous Graph Transformer -- A pioneer study of using heterogeneous graph learning for detecting software vulnerabilities [12.460745260973837]
脆弱性検出はソフトウェアセキュリティにおいて重要な問題であり、学術と産業の両方から注目を集めている。
ディープラーニング、特にグラフニューラルネットワーク(GNN)の最近の進歩は、幅広いソフトウェア脆弱性の自動検出の可能性を明らかにしている。
この研究において、我々はCode Property Graphという形で異種グラフ表現を最初に探求した1人です。
論文 参考訳(メタデータ) (2023-06-02T08:57:13Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - An Unbiased Transformer Source Code Learning with Semantic Vulnerability
Graph [3.3598755777055374]
現在の脆弱性スクリーニング技術は、新しい脆弱性を特定したり、開発者がコード脆弱性と分類を提供するのに効果がない。
これらの問題に対処するために,変換器 "RoBERTa" とグラフ畳み込みニューラルネットワーク (GCN) を組み合わせたマルチタスク・アンバイアス脆弱性分類器を提案する。
本稿では、逐次フロー、制御フロー、データフローからエッジを統合することで生成されたソースコードからのセマンティック脆弱性グラフ(SVG)表現と、Poacher Flow(PF)と呼ばれる新しいフローを利用したトレーニングプロセスを提案する。
論文 参考訳(メタデータ) (2023-04-17T20:54:14Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。