論文の概要: Graph Information Bottleneck
- arxiv url: http://arxiv.org/abs/2010.12811v1
- Date: Sat, 24 Oct 2020 07:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 12:18:11.726747
- Title: Graph Information Bottleneck
- Title(参考訳): グラフ情報のボトルネック
- Authors: Tailin Wu, Hongyu Ren, Pan Li, Jure Leskovec
- Abstract要約: グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
- 参考スコア(独自算出の注目度): 77.21967740646784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation learning of graph-structured data is challenging because both
graph structure and node features carry important information. Graph Neural
Networks (GNNs) provide an expressive way to fuse information from network
structure and node features. However, GNNs are prone to adversarial attacks.
Here we introduce Graph Information Bottleneck (GIB), an information-theoretic
principle that optimally balances expressiveness and robustness of the learned
representation of graph-structured data. Inheriting from the general
Information Bottleneck (IB), GIB aims to learn the minimal sufficient
representation for a given task by maximizing the mutual information between
the representation and the target, and simultaneously constraining the mutual
information between the representation and the input data. Different from the
general IB, GIB regularizes the structural as well as the feature information.
We design two sampling algorithms for structural regularization and instantiate
the GIB principle with two new models: GIB-Cat and GIB-Bern, and demonstrate
the benefits by evaluating the resilience to adversarial attacks. We show that
our proposed models are more robust than state-of-the-art graph defense models.
GIB-based models empirically achieve up to 31% improvement with adversarial
perturbation of the graph structure as well as node features.
- Abstract(参考訳): グラフ構造とノード特徴の両方が重要な情報を持っているため、グラフ構造データの表現学習は困難である。
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
しかし、GNNは敵の攻撃を受けやすい。
本稿では,グラフ構造化データの表現の表現性と堅牢性を最適にバランスする情報理論の原理であるグラフ情報ボトルネック(GIB)を紹介する。
GIBは、一般情報ボトルネック(IB)を継承して、表現とターゲットの相互情報を最大化し、表現と入力データの間の相互情報を同時に制限することにより、与えられたタスクに対する最小限の表現を学習することを目的としている。
一般的なIBと異なり、GIBは構造と特徴情報を正規化している。
GIB-Cat と GIB-Bern の2つの新しいモデルを用いて、構造正則化のための2つのサンプリングアルゴリズムを設計し、敵攻撃に対するレジリエンスを評価することで利点を実証する。
提案モデルは最先端のグラフ防御モデルよりも頑健であることを示す。
GIBベースのモデルは、グラフ構造とノードの特徴の逆摂動によって最大31%の改善を経験的に達成する。
関連論文リスト
- Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - MDS-GNN: A Mutual Dual-Stream Graph Neural Network on Graphs with Incomplete Features and Structure [8.00268216176428]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから表現を分析し学習するための強力なツールとして登場した。
GNNの卓越した性能にとって重要な前提条件は、完全なグラフ情報の提供である。
本研究では,特徴と構造間の相互利益学習を実装した相互二重ストリームグラフニューラルネットワーク(MDS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:42:56Z) - Node Classification via Semantic-Structural Attention-Enhanced Graph Convolutional Networks [0.9463895540925061]
SSA-GCN(Semantic-structure attention-enhanced graph convolutional Network)を導入する。
グラフ構造をモデル化するだけでなく、分類性能を高めるために一般化されていない特徴を抽出する。
Cora と CiteSeer のデータセットに対する実験により,提案手法による性能改善が実証された。
論文 参考訳(メタデータ) (2024-03-24T06:28:54Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - ENGAGE: Explanation Guided Data Augmentation for Graph Representation
Learning [34.23920789327245]
本稿では,グラフのキー部分を保存するために,コントラスト的な拡張過程を導出するENGAGEを提案する。
また、構造情報と特徴情報を摂動するグラフ上に2つのデータ拡張スキームを設計する。
論文 参考訳(メタデータ) (2023-07-03T14:33:14Z) - Graph Structure Learning with Variational Information Bottleneck [70.62851953251253]
本稿では,新しい変分情報ボトルネックガイド付きグラフ構造学習フレームワーク,すなわちVIB-GSLを提案する。
VIB-GSLは情報的かつ圧縮的なグラフ構造を学習し、特定の下流タスクに対して実行可能な情報を蒸留する。
論文 参考訳(メタデータ) (2021-12-16T14:22:13Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。