論文の概要: Defending Graph Convolutional Networks against Dynamic Graph
Perturbations via Bayesian Self-supervision
- arxiv url: http://arxiv.org/abs/2203.03762v1
- Date: Mon, 7 Mar 2022 22:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 15:16:26.527340
- Title: Defending Graph Convolutional Networks against Dynamic Graph
Perturbations via Bayesian Self-supervision
- Title(参考訳): ベイズ自己監督による動的グラフ摂動に対するグラフ畳み込みネットワーク
- Authors: Jun Zhuang, Mohammad Al Hasan
- Abstract要約: Graph Convolutional Networks (GCNs) はノード分類タスクにおいて素晴らしい成果を上げる。
GCNはラベルスカースな動的グラフに対する敵攻撃に対して脆弱である。
本稿では,この問題に対処する新しいベイズ自己スーパービジョンモデル,すなわちGraphSSを提案する。
- 参考スコア(独自算出の注目度): 5.037076816350975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, plentiful evidence illustrates that Graph Convolutional
Networks (GCNs) achieve extraordinary accomplishments on the node
classification task. However, GCNs may be vulnerable to adversarial attacks on
label-scarce dynamic graphs. Many existing works aim to strengthen the
robustness of GCNs; for instance, adversarial training is used to shield GCNs
against malicious perturbations. However, these works fail on dynamic graphs
for which label scarcity is a pressing issue. To overcome label scarcity,
self-training attempts to iteratively assign pseudo-labels to highly confident
unlabeled nodes but such attempts may suffer serious degradation under dynamic
graph perturbations. In this paper, we generalize noisy supervision as a kind
of self-supervised learning method and then propose a novel Bayesian
self-supervision model, namely GraphSS, to address the issue. Extensive
experiments demonstrate that GraphSS can not only affirmatively alert the
perturbations on dynamic graphs but also effectively recover the prediction of
a node classifier when the graph is under such perturbations. These two
advantages prove to be generalized over three classic GCNs across five public
graph datasets.
- Abstract(参考訳): 近年,グラフ畳み込みネットワーク (GCNs) がノード分類タスクにおいて卓越した達成を達成したことを示す証拠が豊富である。
しかし、gcnはラベル・スカース動的グラフの逆攻撃に弱い可能性がある。
既存の多くの研究は、GCNの堅牢性を強化することを目的としており、例えば、悪意のある摂動からGCNを保護するために敵の訓練が使用されている。
しかし、これらの処理はラベル不足が差し迫った問題である動的グラフでは失敗する。
ラベルの不足を克服するため、自己学習は疑似ラベルを高信頼の未ラベルノードに反復的に割り当てるが、動的なグラフ摂動の下では深刻な劣化を被る可能性がある。
本稿では,ノイズ管理を自己教師付き学習手法の一種として一般化し,その問題に対処する新しいベイズ自己監督モデル,すなわちGraphSSを提案する。
広範な実験により、グラフは動的グラフ上の摂動を肯定的に警告できるだけでなく、そのような摂動の下でのノード分類器の予測を効果的に復元できることが示されている。
これらの2つの利点は、5つの公開グラフデータセットにまたがる3つの古典的なGCNに対して一般化される。
関連論文リスト
- RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Learning on Graphs under Label Noise [5.909452203428086]
我々は,ラベルノイズのあるグラフ上での学習問題を解決するために,CGNN(Consistent Graph Neural Network)と呼ばれる新しいアプローチを開発した。
具体的には、グラフの対比学習を正規化用語として採用し、拡張ノードの2つのビューが一貫した表現を持つように促進する。
グラフ上の雑音ラベルを検出するために,ホモフィリー仮定に基づくサンプル選択手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T01:38:01Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Attention-Driven Dynamic Graph Convolutional Network for Multi-Label
Image Recognition [53.17837649440601]
本稿では,各画像の特定のグラフを動的に生成するアテンション駆動型動的グラフ畳み込みネットワーク(ADD-GCN)を提案する。
パブリックなマルチラベルベンチマーク実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-12-05T10:10:12Z) - Deperturbation of Online Social Networks via Bayesian Label Transition [5.037076816350975]
オンラインソーシャルネットワーク(OSN)は、ユーザの活動と関心に基づいて、異なるカテゴリに分類する。
少数のユーザ(いわゆる摂動器)はOSN上でランダムな活動を行うことができ、GCNベースのノード分類タスクの性能を著しく低下させる。
我々は,ラベル遷移の概念を用いたGCNディフェンスモデル,すなわちGraphLTを開発した。
論文 参考訳(メタデータ) (2020-10-27T08:15:12Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。