論文の概要: Poisoning the Inner Prediction Logic of Graph Neural Networks for Clean-Label Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2603.05004v1
- Date: Thu, 05 Mar 2026 09:51:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.175138
- Title: Poisoning the Inner Prediction Logic of Graph Neural Networks for Clean-Label Backdoor Attacks
- Title(参考訳): クリーンラベルバックドア攻撃に対するグラフニューラルネットワークの内的予測論理の適用
- Authors: Yuxiang Zhang, Bin Ma, Enyan Dai,
- Abstract要約: グラフニューラルネットワーク(GNN)は,様々なタスクにおいて顕著な成果を上げている。
グラフバックドア攻撃は、ターゲットクラスとしてアタッチされたトリガでテストノードを予測するためにGNNモデルに悪影響を及ぼす可能性がある。
本稿では, 有害ノードセレクタと論理汚染トリガ発生器を協調してこの問題を解決するため, BA-Logicを提案する。
- 参考スコア(独自算出の注目度): 14.78287918605942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have achieved remarkable results in various tasks. Recent studies reveal that graph backdoor attacks can poison the GNN model to predict test nodes with triggers attached as the target class. However, apart from injecting triggers to training nodes, these graph backdoor attacks generally require altering the labels of trigger-attached training nodes into the target class, which is impractical in real-world scenarios. In this work, we focus on the clean-label graph backdoor attack, a realistic but understudied topic where training labels are not modifiable. According to our preliminary analysis, existing graph backdoor attacks generally fail under the clean-label setting. Our further analysis identifies that the core failure of existing methods lies in their inability to poison the prediction logic of GNN models, leading to the triggers being deemed unimportant for prediction. Therefore, we study a novel problem of effective clean-label graph backdoor attacks by poisoning the inner prediction logic of GNN models. We propose BA-Logic to solve the problem by coordinating a poisoned node selector and a logic-poisoning trigger generator. Extensive experiments on real-world datasets demonstrate that our method effectively enhances the attack success rate and surpasses state-of-the-art graph backdoor attack competitors under clean-label settings. Our code is available at https://anonymous.4open.science/r/BA-Logic
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,様々なタスクにおいて顕著な成果を上げている。
近年の研究では、グラフバックドア攻撃がGNNモデルに悪影響を及ぼし、ターゲットクラスにトリガーを付けたテストノードを予測することが示されている。
しかしながら、トレーニングノードにトリガーを注入することとは別に、これらのグラフバックドアアタックは一般的に、実際のシナリオでは実行不可能な、トリガー対応のトレーニングノードのラベルをターゲットクラスに変更する必要がある。
本研究では,トレーニングラベルが変更できない現実的だが未検討のトピックであるクリーンラベルグラフのバックドア攻撃に焦点を当てる。
予備分析によると、既存のグラフバックドア攻撃は通常、クリーンラベル設定で失敗する。
さらに分析したところ、既存の手法のコア障害は、GNNモデルの予測論理に悪影響を及ぼすことができないため、トリガーが予測に重要でないと考えられることが判明した。
そこで本研究では,GNNモデルの内部予測ロジックを悪用することにより,効果的なクリーンラベルグラフバックドア攻撃の新たな問題について検討する。
本稿では, 有害ノードセレクタと論理汚染トリガ発生器を協調してこの問題を解決するため, BA-Logicを提案する。
実世界のデータセットに対する大規模な実験により、我々の手法は攻撃成功率を効果的に向上し、クリーンラベル設定下では最先端のグラフバックドア攻撃相手を上回ることを示した。
私たちのコードはhttps://anonymous.4open.science/r/BA-Logicで利用可能です。
関連論文リスト
- Multi-Targeted Graph Backdoor Attack [0.038233569758620044]
グラフニューラルネットワーク(GNN)は、さまざまな領域にまたがる臨界問題の解決において、例外的なパフォーマンスを示している。
グラフ分類のためのバックドアアタックに関する既存の研究は、サブグラフ置換を用いた単一ターゲットアタックに限られている。
グラフ分類タスクにおいて,複数のトリガが同時に予測を異なるターゲットラベルにリダイレクトする,最初のマルチターゲットバックドアアタックを導入する。
論文 参考訳(メタデータ) (2026-01-21T21:23:51Z) - MADE: Graph Backdoor Defense with Masked Unlearning [24.97718571096943]
グラフニューラルネットワーク(GNN)は、グラフ関連タスクの処理能力に優れていたため、研究者から大きな注目を集めている。
最近の研究では、GNNはトレーニングデータセットにトリガを注入することで実装されたバックドア攻撃に対して脆弱であることが示されている。
この脆弱性は、薬物発見のようなセンシティブなドメインにおけるGNNの応用に重大なセキュリティリスクをもたらす。
論文 参考訳(メタデータ) (2024-11-26T22:50:53Z) - Robustness Inspired Graph Backdoor Defense [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective [33.35835060102069]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて顕著なパフォーマンスを示している。
バックドア攻撃は、トレーニンググラフ内のノードのセットにバックドアトリガとターゲットクラスラベルをアタッチすることで、グラフを汚染する。
本稿では,IDトリガによる無意味なグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2024-05-17T13:09:39Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。