論文の概要: Robust Unsupervised Graph Representation Learning via Mutual Information
Maximization
- arxiv url: http://arxiv.org/abs/2201.08557v1
- Date: Fri, 21 Jan 2022 06:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:25:14.554580
- Title: Robust Unsupervised Graph Representation Learning via Mutual Information
Maximization
- Title(参考訳): 相互情報最大化によるロバスト教師なしグラフ表現学習
- Authors: Jihong Wang, Minnan Luo, Jundong Li, Ziqi Liu, Jun Zhou, Qinghua Zheng
- Abstract要約: 本稿では、頑健な教師なしグラフ表現学習に焦点を当てる。
本稿では、逆摂動ノード表現間の相互情報を評価するために、グラフ表現堅牢性(GRR)と呼ばれるロバスト性尺度を提案する。
- 参考スコア(独自算出の注目度): 48.01303380298564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that GNNs are vulnerable to adversarial attack.
Thus, many approaches are proposed to improve the robustness of GNNs against
adversarial attacks. Nevertheless, most of these methods measure the model
robustness based on label information and thus become infeasible when labels
information is not available. Therefore, this paper focuses on robust
unsupervised graph representation learning. In particular, to quantify the
robustness of GNNs without label information, we propose a robustness measure,
named graph representation robustness (GRR), to evaluate the mutual information
between adversarially perturbed node representations and the original graph.
There are mainly two challenges to estimate GRR: 1) mutual information
estimation upon adversarially attacked graphs; 2) high complexity of
adversarial attack to perturb node features and graph structure jointly in the
training procedure. To tackle these problems, we further propose an effective
mutual information estimator with subgraph-level summary and an efficient
adversarial training strategy with only feature perturbations. Moreover, we
theoretically establish a connection between our proposed GRR measure and the
robustness of downstream classifiers, which reveals that GRR can provide a
lower bound to the adversarial risk of downstream classifiers. Extensive
experiments over several benchmarks demonstrate the effectiveness and
superiority of our proposed method.
- Abstract(参考訳): 近年の研究では、GNNは敵の攻撃に弱いことが示されている。
したがって、敵攻撃に対するGNNの堅牢性を改善するために、多くのアプローチが提案されている。
しかしながら、これらの手法のほとんどはラベル情報に基づいてモデルロバスト性を計測し、ラベル情報が得られない場合は実現不可能となる。
そこで本研究では,堅牢な教師なしグラフ表現学習に注目する。
特に,ラベル情報を使わずにGNNのロバスト性を定量化するため,逆摂動ノード表現と元のグラフとの相互情報を評価するためのロバストネス尺度,名前付きグラフ表現ロバストネス(GRR)を提案する。
GRRを推定する主な課題は2つある。
1) 相手方攻撃されたグラフによる相互情報推定
2) 摂動ノードの特徴やグラフ構造に対する対向攻撃の複雑度は, トレーニング手順と共同で行われる。
これらの問題に対処するために,サブグラフレベルのサマリーを備えた効果的な相互情報推定器と,特徴の摂動のみを含む効率的な敵意訓練戦略を提案する。
さらに,提案したGRR測度と下流分類器のロバスト性との関係を理論的に確立し,下流分類器の対角的リスクに対してGRRが低い限界を与えることを示した。
いくつかのベンチマークで広範な実験を行い,提案手法の有効性と優位性を実証した。
関連論文リスト
- Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Learning Robust Representation through Graph Adversarial Contrastive
Learning [6.332560610460623]
既存の研究では、グラフニューラルネットワーク(GNN)によって生成されたノード表現が、敵の攻撃に対して脆弱であることが示されている。
本稿では,グラフ自己教師型学習に対数拡張を導入することにより,新しいグラフ適応型コントラスト学習フレームワーク(GraphACL)を提案する。
論文 参考訳(メタデータ) (2022-01-31T07:07:51Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。