論文の概要: Robust Mid-Pass Filtering Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2302.08048v1
- Date: Thu, 16 Feb 2023 03:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:09:58.792045
- Title: Robust Mid-Pass Filtering Graph Convolutional Networks
- Title(参考訳): ロバストな中パスフィルタリンググラフ畳み込みネットワーク
- Authors: Jincheng Huang and Lun Du and Xu Chen and Qiang Fu and Shi Han and
Dongmei Zhang
- Abstract要約: グラフ畳み込みネットワーク(GCN)は現在、グラフ構造データを扱う上で最も有望なパラダイムである。
近年の研究では、GCNは敵の攻撃に弱いことが示されている。
そこで我々は,これらの課題を克服するために,シンプルで効果的なミッドパスフィルタGCN(Mid-GCN)を提案する。
- 参考スコア(独自算出の注目度): 47.50194731200042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional networks (GCNs) are currently the most promising paradigm
for dealing with graph-structure data, while recent studies have also shown
that GCNs are vulnerable to adversarial attacks. Thus developing GCN models
that are robust to such attacks become a hot research topic. However, the
structural purification learning-based or robustness constraints-based defense
GCN methods are usually designed for specific data or attacks, and introduce
additional objective that is not for classification. Extra training overhead is
also required in their design. To address these challenges, we conduct in-depth
explorations on mid-frequency signals on graphs and propose a simple yet
effective Mid-pass filter GCN (Mid-GCN). Theoretical analyses guarantee the
robustness of signals through the mid-pass filter, and we also shed light on
the properties of different frequency signals under adversarial attacks.
Extensive experiments on six benchmark graph data further verify the
effectiveness of our designed Mid-GCN in node classification accuracy compared
to state-of-the-art GCNs under various adversarial attack strategies.
- Abstract(参考訳): グラフ畳み込みネットワーク(gcns)は現在、グラフ構造データを扱う上で最も有望なパラダイムであるが、近年の研究では、gcnsが敵対的攻撃に弱いことも示されている。
したがって、このような攻撃に対して堅牢なGCNモデルの開発は、ホットな研究トピックとなっている。
しかしながら、構造的浄化学習ベースまたは堅牢性制約ベースの防衛GCN法は、通常、特定のデータや攻撃のために設計され、分類の目的ではない追加の目的が導入される。
追加の訓練のオーバーヘッドも設計上必要である。
これらの課題に対処するため,我々はグラフ上の中周波信号の詳細な探索を行い,単純な中周波フィルタGCN(Mid-GCN)を提案する。
理論解析により, 中間通過フィルタによる信号のロバスト性が保証され, また, 逆攻撃時の周波数特性にも光を当てた。
6つのベンチマークグラフデータに対する広範囲な実験により、様々な敵攻撃戦略下での最先端GCNと比較して、ノード分類精度において設計したMid-GCNの有効性が検証された。
関連論文リスト
- Certifying Robustness of Graph Convolutional Networks for Node Perturbation with Polyhedra Abstract Interpretation [3.0560105799516046]
グラフ畳み込みニューラルネットワーク(GCN)は、トレーニングデータからグラフベースの知識表現を学習するための強力なツールである。
GCNは入力グラフの小さな摂動に弱いため、入力障害や敵攻撃の影響を受けやすい。
本稿では,ノード特徴摂動の存在下でのノード分類のためのGCNロバスト性認証手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T14:21:55Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Understanding Structural Vulnerability in Graph Convolutional Networks [27.602802961213236]
グラフ畳み込みネットワーク(GCN)は、グラフ構造に対する敵攻撃に対して脆弱である。
構造逆例はGCNの非ロバストアグリゲーションスキームに起因していると考えられる。
その結果,GCN の構造的攻撃に対するロバスト性は著しく向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-13T15:07:44Z) - Spatio-Temporal Sparsification for General Robust Graph Convolution
Networks [16.579675313683627]
グラフニューラルネットワーク(GNN)は、様々なグラフ構造データへの応用の成功により、注目を集めている。
最近の研究では、敵対攻撃がGNNの機能を脅かしていることが示されている。
本稿では,GNN隠蔽ノード表現に時空間スペーサー化(ST-Sparse)を適用して,GNNに対する敵攻撃を防御することを提案する。
論文 参考訳(メタデータ) (2021-03-23T02:03:11Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。