論文の概要: Relaxing Graph Transformers for Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2407.11764v1
- Date: Tue, 16 Jul 2024 14:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 14:42:40.481958
- Title: Relaxing Graph Transformers for Adversarial Attacks
- Title(参考訳): 逆攻撃に対するグラフ変換器の緩和
- Authors: Philipp Foth, Lukas Gosch, Simon Geisler, Leo Schwinn, Stephan Günnemann,
- Abstract要約: グラフトランスフォーマー(GT)は、いくつかのベンチマークでMessage-Passing GNNを上回り、その逆の堅牢性は明らかにされていない。
本研究では,(1)ランダムウォークPE,(2)ペアワイドショートパス,(3)スペクトル摂動に基づく3つの代表的なアーキテクチャを対象とすることで,これらの課題を克服する。
評価の結果, 破滅的に脆弱であり, 作業の重要性と適応攻撃の必要性を浮き彫りにする可能性が示唆された。
- 参考スコア(独自算出の注目度): 49.450581960551276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing studies have shown that Graph Neural Networks (GNNs) are vulnerable to adversarial attacks. Even though Graph Transformers (GTs) surpassed Message-Passing GNNs on several benchmarks, their adversarial robustness properties are unexplored. However, attacking GTs is challenging due to their Positional Encodings (PEs) and special attention mechanisms which can be difficult to differentiate. We overcome these challenges by targeting three representative architectures based on (1) random-walk PEs, (2) pair-wise-shortest-path PEs, and (3) spectral PEs - and propose the first adaptive attacks for GTs. We leverage our attacks to evaluate robustness to (a) structure perturbations on node classification; and (b) node injection attacks for (fake-news) graph classification. Our evaluation reveals that they can be catastrophically fragile and underlines our work's importance and the necessity for adaptive attacks.
- Abstract(参考訳): 既存の研究では、グラフニューラルネットワーク(GNN)が敵の攻撃に弱いことが示されている。
グラフトランスフォーマー(GT)は、いくつかのベンチマークでメッセージパッシングGNNを上回りましたが、その逆の堅牢性は未調査です。
しかし,GTの攻撃は,その位置エンコーディング(PE)と,識別が難しい特別な注意機構により困難である。
本稿では,(1)ランダムウォークPE,(2)ペアワイド・ショートパスPE,(3)スペクトルPEに基づく3つの代表的なアーキテクチャを対象とし,GTに対する適応攻撃を提案する。
我々は攻撃を利用してロバスト性を評価する
a)ノード分類に関する構造摂動
b)(フェイクニューズ)グラフ分類のためのノードインジェクション攻撃。
評価の結果, 破滅的に脆弱であり, 作業の重要性と適応攻撃の必要性を浮き彫りにする可能性が示唆された。
関連論文リスト
- Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks [8.629862888374243]
本稿では,ネットワーク侵入検知におけるGNNに適した敵攻撃の最初の形式化を提案する。
我々は、現実のシナリオにおいて、実行可能な構造攻撃を実行するために、攻撃者が考慮すべき問題空間の制約を概説し、モデル化する。
以上の結果から,古典的特徴に基づく攻撃に対するモデルの堅牢性の向上が示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:40:33Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Self-Guided Robust Graph Structure Refinement [37.235898707554284]
本稿では,GNNを敵攻撃から守るための自己誘導グラフ構造改善(GSR)フレームワークを提案する。
本稿では,非標的攻撃,標的攻撃,機能攻撃,eコマース詐欺,ノイズの多いノードラベルなど,様々なシナリオにおけるSG-GSRの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T05:00:07Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - HC-Ref: Hierarchical Constrained Refinement for Robust Adversarial
Training of GNNs [7.635985143883581]
コンピュータビジョンにおける敵の攻撃に対する最も効果的な防御機構の1つとされる敵の訓練は、GNNの堅牢性を高めるという大きな約束を持っている。
本稿では,GNNと下流分類器の対摂動性を高める階層的制約改善フレームワーク(HC-Ref)を提案する。
論文 参考訳(メタデータ) (2023-12-08T07:32:56Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。