論文の概要: Understanding Structural Vulnerability in Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2108.06280v1
- Date: Fri, 13 Aug 2021 15:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 13:03:37.835188
- Title: Understanding Structural Vulnerability in Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークにおける構造脆弱性の理解
- Authors: Liang Chen, Jintang Li, Qibiao Peng, Yang Liu, Zibin Zheng and Carl
Yang
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、グラフ構造に対する敵攻撃に対して脆弱である。
構造逆例はGCNの非ロバストアグリゲーションスキームに起因していると考えられる。
その結果,GCN の構造的攻撃に対するロバスト性は著しく向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 27.602802961213236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that Graph Convolutional Networks (GCNs) are
vulnerable to adversarial attacks on the graph structure. Although multiple
works have been proposed to improve their robustness against such structural
adversarial attacks, the reasons for the success of the attacks remain unclear.
In this work, we theoretically and empirically demonstrate that structural
adversarial examples can be attributed to the non-robust aggregation scheme
(i.e., the weighted mean) of GCNs. Specifically, our analysis takes advantage
of the breakdown point which can quantitatively measure the robustness of
aggregation schemes. The key insight is that weighted mean, as the basic design
of GCNs, has a low breakdown point and its output can be dramatically changed
by injecting a single edge. We show that adopting the aggregation scheme with a
high breakdown point (e.g., median or trimmed mean) could significantly enhance
the robustness of GCNs against structural attacks. Extensive experiments on
four real-world datasets demonstrate that such a simple but effective method
achieves the best robustness performance compared to state-of-the-art models.
- Abstract(参考訳): 近年の研究では、グラフ畳み込みネットワーク(GCN)がグラフ構造に対する敵対攻撃に対して脆弱であることが示されている。
このような構造的敵攻撃に対する堅牢性を改善するために複数の研究が提案されているが、この攻撃が成功した理由は不明である。
本研究は,GCNの非ロバストアグリゲーションスキーム(すなわち重み付き平均)による構造逆例を理論的,実証的に証明する。
具体的には,集合スキームのロバスト性を定量的に測定できるブレークダウンポイントを用いて解析を行った。
重要な洞察は、重み付き平均がGCNの基本設計であるように、破壊点が低く、単一のエッジを注入することで出力を劇的に変化させることができることである。
高分解点(中央値、トリミング平均など)の集約方式を採用することで、構造攻撃に対するgcnのロバスト性が著しく向上する可能性が示唆された。
4つの実世界のデータセットに関する広範囲な実験により、そのような単純だが効果的な方法が最先端モデルと比較して最も頑健な性能が得られることが示されている。
関連論文リスト
- Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - On provable privacy vulnerabilities of graph representations [34.45433384694758]
グラフ表現学習(GRL)は複雑なネットワーク構造から洞察を抽出するために重要である。
また、これらの表現にプライバシー上の脆弱性があるため、セキュリティ上の懸念も高まる。
本稿では,エッジ再構成攻撃により,高感度なトポロジ情報を推定できるグラフニューラルモデルの構造的脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-06T14:26:22Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Sparse but Strong: Crafting Adversarially Robust Graph Lottery Tickets [3.325501850627077]
Graph Lottery Tickets(GLT)は、その密度の高いものと比較して、推論レイテンシと計算フットプリントを大幅に削減する。
これらの利点にも拘わらず、敵構造摂動に対するそれらの性能はいまだに完全に検討されている。
本稿では,隣接行列とGNN重みを具現化する,逆向きに頑健なグラフスペーシフィケーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T17:52:46Z) - HC-Ref: Hierarchical Constrained Refinement for Robust Adversarial
Training of GNNs [7.635985143883581]
コンピュータビジョンにおける敵の攻撃に対する最も効果的な防御機構の1つとされる敵の訓練は、GNNの堅牢性を高めるという大きな約束を持っている。
本稿では,GNNと下流分類器の対摂動性を高める階層的制約改善フレームワーク(HC-Ref)を提案する。
論文 参考訳(メタデータ) (2023-12-08T07:32:56Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Robust Mid-Pass Filtering Graph Convolutional Networks [47.50194731200042]
グラフ畳み込みネットワーク(GCN)は現在、グラフ構造データを扱う上で最も有望なパラダイムである。
近年の研究では、GCNは敵の攻撃に弱いことが示されている。
そこで我々は,これらの課題を克服するために,シンプルで効果的なミッドパスフィルタGCN(Mid-GCN)を提案する。
論文 参考訳(メタデータ) (2023-02-16T03:07:09Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - Improving Robustness of Graph Neural Networks with Heterophily-Inspired
Designs [18.524164548051417]
多くのグラフニューラルネットワーク(GNN)は、敵の攻撃に敏感であり、グラフ構造が意図的に乱れた場合、性能損失を被る可能性がある。
ノード特徴がホモフィリで、衝撃的な構造的攻撃が常にヘテロフィリのレベルを上昇させるという標準的なシナリオを示す。
我々は、(i)エゴエンベディングと(ii)アグリゲータの分離したアグリゲータ、および(ii)アグリゲーションの範囲を小さくすることで、GNNのロバスト性を大幅に向上させる2つの設計を提案する。
論文 参考訳(メタデータ) (2021-06-14T21:39:36Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。