論文の概要: Backdoor or Manipulation? Graph Mixture of Experts Can Defend Against Various Graph Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2510.15333v1
- Date: Fri, 17 Oct 2025 05:51:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.483845
- Title: Backdoor or Manipulation? Graph Mixture of Experts Can Defend Against Various Graph Adversarial Attacks
- Title(参考訳): バックドアかマニピュレーションか? 専門家のグラフミックスは、様々なグラフの敵対的攻撃を防げる
- Authors: Yuyuan Feng, Bin Ma, Enyan Dai,
- Abstract要約: 我々は、Mixture of Experts(MoE)アーキテクチャの柔軟性を活用して、バックドア、エッジ操作、ノードインジェクション攻撃に対して、スケーラブルで統一されたフレームワークを設計します。
具体的には、個々の専門家が意思決定プロセスにおいて異なる近傍構造に注目するよう促すMIベースの論理多様性損失を提案する。
本稿では、乱れパターンを特定し、乱れノードを対応するロバストな専門家に適応的にルーティングするロバストネス対応ルータを提案する。
- 参考スコア(独自算出の注目度): 11.295664927673398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extensive research has highlighted the vulnerability of graph neural networks (GNNs) to adversarial attacks, including manipulation, node injection, and the recently emerging threat of backdoor attacks. However, existing defenses typically focus on a single type of attack, lacking a unified approach to simultaneously defend against multiple threats. In this work, we leverage the flexibility of the Mixture of Experts (MoE) architecture to design a scalable and unified framework for defending against backdoor, edge manipulation, and node injection attacks. Specifically, we propose an MI-based logic diversity loss to encourage individual experts to focus on distinct neighborhood structures in their decision processes, thus ensuring a sufficient subset of experts remains unaffected under perturbations in local structures. Moreover, we introduce a robustness-aware router that identifies perturbation patterns and adaptively routes perturbed nodes to corresponding robust experts. Extensive experiments conducted under various adversarial settings demonstrate that our method consistently achieves superior robustness against multiple graph adversarial attacks.
- Abstract(参考訳): 大規模な研究は、操作、ノード注入、最近出現しつつあるバックドア攻撃の脅威を含む、敵対的な攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性を強調した。
しかし、既存の防御は1つのタイプの攻撃に重点を置いており、複数の脅威に対して同時に防御するための統一されたアプローチが欠如している。
この作業では、Mixture of Experts(MoE)アーキテクチャの柔軟性を活用し、バックドアやエッジ操作、ノードインジェクション攻撃に対して、スケーラブルで統一されたフレームワークを設計します。
具体的には、各専門家が決定過程において異なる近傍構造に注目するよう促すMIベースの論理多様性の喪失を提案する。
さらに、摂動パターンを識別し、摂動ノードを対応するロバストな専門家に適応的にルーティングするロバストネス対応ルータを導入する。
本手法は,複数のグラフ対向攻撃に対して常に優れた強靭性を達成できることを示す。
関連論文リスト
- JANUS: A Dual-Constraint Generative Framework for Stealthy Node Injection Attacks [3.543515488496546]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで顕著なパフォーマンスを示しているが、高度な敵攻撃には弱い。
我々は、JANUS(Joint Alignment of Nodal and Universal Structures)と呼ばれる二重拘束ステルスノード注入フレームワークを提案する。
局所的なレベルでは、特徴空間における幾何的整合性を達成するために、局所的特徴多様体アライメント戦略を導入する。
グローバルレベルでは、構造化潜在変数を組み込んで、生成した構造との相互情報を最大化し、注入された構造が元のグラフのセマンティックパターンと整合していることを保証する。
論文 参考訳(メタデータ) (2025-09-16T17:24:30Z) - Reformulation is All You Need: Addressing Malicious Text Features in DNNs [53.45564571192014]
本稿では,敵攻撃とバックドア攻撃の両方に対して有効な,統一的かつ適応的な防御フレームワークを提案する。
我々のフレームワークは、様々な悪意あるテキスト機能において、既存のサンプル指向の防御基準よりも優れています。
論文 参考訳(メタデータ) (2025-02-02T03:39:43Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Interpretability is a Kind of Safety: An Interpreter-based Ensemble for
Adversary Defense [28.398901783858005]
我々は,強固な防御敵に対するX-Ensembleと呼ばれるインタプリタベースのアンサンブルフレームワークを提案する。
X-エンサンブルはランダムフォレスト(RF)モデルを用いて、準検出器をアンサンブル検出器に結合し、敵のハイブリッド攻撃防御を行う。
論文 参考訳(メタデータ) (2023-04-14T04:32:06Z) - ExploreADV: Towards exploratory attack for Neural Networks [0.33302293148249124]
ExploreADVは、地域的および非受容的な攻撃をモデル化できる汎用的で柔軟な敵攻撃システムである。
提案システムは,入力のサブリージョンに着目し,知覚不能な摂動を探索し,攻撃に対する画素/領域の脆弱性を理解するための柔軟性をユーザに提供する。
論文 参考訳(メタデータ) (2023-01-01T07:17:03Z) - Adaptive Perturbation Generation for Multiple Backdoors Detection [29.01715186371785]
本稿では,複数種類のバックドア攻撃を検出するための適応摂動生成(APG)フレームワークを提案する。
まず,複数種類のバックドアトリガに適合するグローバル・ローカル戦略を設計する。
摂動注入の効率をさらに高めるため,勾配誘導マスク生成戦略を導入する。
論文 参考訳(メタデータ) (2022-09-12T13:37:06Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。