論文の概要: CoG: a Two-View Co-training Framework for Defending Adversarial Attacks
on Graph
- arxiv url: http://arxiv.org/abs/2109.05558v1
- Date: Sun, 12 Sep 2021 16:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 10:32:28.240355
- Title: CoG: a Two-View Co-training Framework for Defending Adversarial Attacks
on Graph
- Title(参考訳): CoG: グラフ上の敵攻撃を防御するための2ビューコトレーニングフレームワーク
- Authors: Xugang Wu, Huijun Wu, Xu Zhou, Kai Lu
- Abstract要約: グラフニューラルネットワークはグラフデータ解析において顕著な性能を示す。
GNNモデルの堅牢性は依然として課題である。
近年の研究では、GNNは逆行性摂動によって容易に騙されうることが示されている。
- 参考スコア(独自算出の注目度): 14.205682843815284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks exhibit remarkable performance in graph data analysis.
However, the robustness of GNN models remains a challenge. As a result, they
are not reliable enough to be deployed in critical applications. Recent studies
demonstrate that GNNs could be easily fooled with adversarial perturbations,
especially structural perturbations. Such vulnerability is attributed to the
excessive dependence on the structure information to make predictions. To
achieve better robustness, it is desirable to build the prediction of GNNs with
more comprehensive features. Graph data, in most cases, has two views of
information, namely structure information and feature information. In this
paper, we propose CoG, a simple yet effective co-training framework to combine
these two views for the purpose of robustness. CoG trains sub-models from the
feature view and the structure view independently and allows them to distill
knowledge from each other by adding their most confident unlabeled data into
the training set. The orthogonality of these two views diversifies the
sub-models, thus enhancing the robustness of their ensemble. We evaluate our
framework on three popular datasets, and results show that CoG significantly
improves the robustness of graph models against adversarial attacks without
sacrificing their performance on clean data. We also show that CoG still
achieves good robustness when both node features and graph structures are
perturbed.
- Abstract(参考訳): グラフニューラルネットワークはグラフデータ解析において顕著な性能を示す。
しかし、GNNモデルの堅牢性は依然として課題である。
その結果、それらは重要なアプリケーションにデプロイされるほど信頼できない。
近年の研究では、GNNは逆方向の摂動、特に構造摂動で容易に騙されうることが示されている。
このような脆弱性は、予測を行う構造情報への過度な依存に起因する。
堅牢性を向上するためには、より包括的な機能を備えたGNNの予測を構築することが望ましい。
グラフデータには、ほとんどの場合、構造情報と特徴情報という2つの情報ビューがある。
本稿では,この2つの視点を組み合わさって堅牢性を実現するための,シンプルで効果的な協調学習フレームワークであるCoGを提案する。
CoGは、特徴ビューと構造ビューから独立したサブモデルをトレーニングし、トレーニングセットに最も自信のないラベル付きデータを付加することで、相互に知識を蒸留することができる。
これら2つのビューの直交性はサブモデルを多様化させ、アンサンブルの堅牢性を高める。
その結果,cogは,クリーンデータに対する性能を犠牲にすることなく,敵対的攻撃に対するグラフモデルのロバスト性を大幅に向上させることがわかった。
また,ノード特徴とグラフ構造が乱れても,CoGが良好な堅牢性を実現することを示す。
関連論文リスト
- Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Higher Order Structures For Graph Explanations [9.164945693135959]
グラフ説明における高階表現のためのフレームワーク(FORGE)を提案する。
FORGEはグラフ説明器が高次のマルチノードインタラクションをキャプチャすることを可能にする。
平均説明精度をそれぞれ1.9倍と2.25倍に改善する。
論文 参考訳(メタデータ) (2024-06-05T13:31:30Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Compact Graph Structure Learning via Mutual Information Compression [79.225671302689]
グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のグラフ構造と学習パラメータを最適化する能力に大きな注目を集めている。
我々は、MI圧縮によるコンパクトGSLアーキテクチャ、CoGSLを提案する。
クリーンで攻撃的な条件下で複数のデータセットに対して広範な実験を行い、CoGSLの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2022-01-14T16:22:33Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。