論文の概要: Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2002.10947v1
- Date: Tue, 25 Feb 2020 15:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:52:21.661031
- Title: Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのロバストトレーニングの効率的・汎用的枠組みに向けて
- Authors: Kaidi Xu, Sijia Liu, Pin-Yu Chen, Mengshu Sun, Caiwen Ding, Bhavya
Kailkhura, Xue Lin
- Abstract要約: グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
- 参考スコア(独自算出の注目度): 96.93500886136532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have made significant advances on several
fundamental inference tasks. As a result, there is a surge of interest in using
these models for making potentially important decisions in high-regret
applications. However, despite GNNs' impressive performance, it has been
observed that carefully crafted perturbations on graph structures (or nodes
attributes) lead them to make wrong predictions. Presence of these adversarial
examples raises serious security concerns. Most of the existing robust GNN
design/training methods are only applicable to white-box settings where model
parameters are known and gradient based methods can be used by performing
convex relaxation of the discrete graph domain. More importantly, these methods
are not efficient and scalable which make them infeasible in time sensitive
tasks and massive graph datasets. To overcome these limitations, we propose a
general framework which leverages the greedy search algorithms and zeroth-order
methods to obtain robust GNNs in a generic and an efficient manner. On several
applications, we show that the proposed techniques are significantly less
computationally expensive and, in some cases, more robust than the
state-of-the-art methods making them suitable to large-scale problems which
were out of the reach of traditional robust training methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きな進歩をもたらした。
その結果、高信頼のアプリケーションにおいて潜在的に重要な決定を下すためにこれらのモデルを使うことに対する関心が高まっている。
しかし、GNNの優れた性能にもかかわらず、グラフ構造(またはノード属性)の摂動を慎重に作り、誤った予測を下すことが観察されている。
これらの敵対的な例の存在は、深刻なセキュリティ上の懸念を引き起こす。
既存のロバストなGNN設計/トレーニング手法のほとんどは、モデルパラメータが既知のホワイトボックス設定にのみ適用でき、グラデーションベースの手法は離散グラフ領域の凸緩和を実行することで利用できる。
さらに重要なことに、これらのメソッドは効率的でスケーラブルではないため、時間に敏感なタスクや巨大なグラフデータセットでは実現不可能である。
これらの制約を克服するために, 強靭な探索アルゴリズムとゼロ階法を利用して, 汎用的で効率的なGNNを得る汎用フレームワークを提案する。
いくつかの応用において,提案手法は計算コストが著しく低く,場合によっては従来のロバストなトレーニング手法の限界外であった大規模問題に適合する,最先端の手法よりも堅牢であることを示す。
関連論文リスト
- Haste Makes Waste: A Simple Approach for Scaling Graph Neural Networks [37.41604955004456]
グラフニューラルネットワーク(GNN)はグラフ表現学習において顕著な成功を収めている。
GNNを大規模グラフのアプリケーションに拡張するための様々なサンプリング手法が提案されている。
論文 参考訳(メタデータ) (2024-10-07T18:29:02Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Scalable Adversarial Attack on Graph Neural Networks with Alternating
Direction Method of Multipliers [17.09807200410981]
乗算器の交互方向法(ADMM)を用いた最初のスケーラブルな対向攻撃法であるSAGを提案する。
SAGは最先端の手法と比較して計算量やメモリオーバーヘッドを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-09-22T00:33:36Z) - Efficient Robustness Certificates for Discrete Data: Sparsity-Aware
Randomized Smoothing for Graphs, Images and More [85.52940587312256]
本稿では,初期作業を想定したランダム化平滑化フレームワークに基づくモデル非依存の証明書を提案する。
このアプローチがさまざまなモデル、データセット、タスクに対して有効であることを示します。
論文 参考訳(メタデータ) (2020-08-29T10:09:02Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。