論文の概要: Graph Neural Backdoor: Fundamentals, Methodologies, Applications, and Future Directions
- arxiv url: http://arxiv.org/abs/2406.10573v1
- Date: Sat, 15 Jun 2024 09:23:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 23:43:29.557813
- Title: Graph Neural Backdoor: Fundamentals, Methodologies, Applications, and Future Directions
- Title(参考訳): グラフニューラルバックドア:基礎,方法論,応用,今後の方向性
- Authors: Xiao Yang, Gaolei Li, Jianhua Li,
- Abstract要約: GNNの強化にもかかわらず、最近の研究はバックドア攻撃に対する潜在的な脆弱性を実証的に実証している。
この調査は、グラフバックドアの原則を探求し、ディフェンダーに洞察を提供し、将来のセキュリティ研究を促進することを目的としている。
- 参考スコア(独自算出の注目度): 7.392996857661765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have significantly advanced various downstream graph-relevant tasks, encompassing recommender systems, molecular structure prediction, social media analysis, etc. Despite the boosts of GNN, recent research has empirically demonstrated its potential vulnerability to backdoor attacks, wherein adversaries employ triggers to poison input samples, inducing GNN to adversary-premeditated malicious outputs. This is typically due to the controlled training process, or the deployment of untrusted models, such as delegating model training to third-party service, leveraging external training sets, and employing pre-trained models from online sources. Although there's an ongoing increase in research on GNN backdoors, comprehensive investigation into this field is lacking. To bridge this gap, we propose the first survey dedicated to GNN backdoors. We begin by outlining the fundamental definition of GNN, followed by the detailed summarization and categorization of current GNN backdoor attacks and defenses based on their technical characteristics and application scenarios. Subsequently, the analysis of the applicability and use cases of GNN backdoors is undertaken. Finally, the exploration of potential research directions of GNN backdoors is presented. This survey aims to explore the principles of graph backdoors, provide insights to defenders, and promote future security research.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、リコメンダシステム、分子構造予測、ソーシャルメディア分析など、さまざまなダウンストリームグラフ関連タスクを大幅に進歩させてきた。
GNNの強化にもかかわらず、最近の研究は、バックドア攻撃の潜在的な脆弱性を実証的に証明し、敵は毒の入力サンプルにトリガーを使用、GNNを敵が治療した悪意のあるアウトプットに誘導する。
これは典型的には、制御されたトレーニングプロセスや、サードパーティサービスへのモデルトレーニングの委譲、外部トレーニングセットの活用、オンラインソースからの事前トレーニングモデルの採用など、信頼できないモデルのデプロイによるものである。
GNNバックドアの研究は進行中ですが、この分野に関する包括的な調査は不十分です。
このギャップを埋めるため、GNNバックドアに関する最初の調査を提案する。
まず、GNNの基本的定義の概要と、その技術的特徴と応用シナリオに基づいて、現在のGNNバックドア攻撃と防御の詳細な要約と分類を行う。
その後、GNNバックドアの適用性および使用事例の分析を行う。
最後に,GNNバックドアの潜在的研究方向性について述べる。
この調査は、グラフバックドアの原則を探求し、ディフェンダーに洞察を提供し、将来のセキュリティ研究を促進することを目的としている。
関連論文リスト
- "No Matter What You Do": Purifying GNN Models via Backdoor Unlearning [33.07926413485209]
GNNのバックドア攻撃は、攻撃者がトリガーを埋め込むことでグラフデータの一部を修正したという事実にある。
GNNにおける最初のバックドア緩和手法であるGCleanerを提案する。
GCleanerは、クリーンデータのわずか1%でバックドア攻撃の成功率を10%に下げることができ、ほぼ無視できるモデル性能の低下がある。
論文 参考訳(メタデータ) (2024-10-02T06:30:49Z) - Rethinking Pruning for Backdoor Mitigation: An Optimization Perspective [19.564985801521814]
バックドアモデルの修復に,グラフニューラルネットワーク(GNN)と強化学習(RL)を併用したONP(Optimized Neuron Pruning)法を提案する。
少量のクリーンデータにより、ONPは、無視可能な性能劣化を犠牲にして、バックドアアタックによって埋め込まれたバックドアニューロンを効果的にプルークすることができる。
論文 参考訳(メタデータ) (2024-05-28T01:59:06Z) - A backdoor attack against link prediction tasks with graph neural
networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理可能なディープラーニングモデルのクラスである。
近年の研究では、GNNモデルがバックドア攻撃に弱いことが報告されている。
本稿では,GNNに基づくリンク予測タスクに対するバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-05T06:45:48Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。