論文の概要: Graph Structure Learning with Variational Information Bottleneck
- arxiv url: http://arxiv.org/abs/2112.08903v1
- Date: Thu, 16 Dec 2021 14:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 14:19:54.830309
- Title: Graph Structure Learning with Variational Information Bottleneck
- Title(参考訳): 変動情報を用いたグラフ構造学習
- Authors: Qingyun Sun, Jianxin Li, Hao Peng, Jia Wu, Xingcheng Fu, Cheng Ji,
Philip S. Yu
- Abstract要約: 本稿では,新しい変分情報ボトルネックガイド付きグラフ構造学習フレームワーク,すなわちVIB-GSLを提案する。
VIB-GSLは情報的かつ圧縮的なグラフ構造を学習し、特定の下流タスクに対して実行可能な情報を蒸留する。
- 参考スコア(独自算出の注目度): 70.62851953251253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have shown promising results on a broad spectrum
of applications. Most empirical studies of GNNs directly take the observed
graph as input, assuming the observed structure perfectly depicts the accurate
and complete relations between nodes. However, graphs in the real world are
inevitably noisy or incomplete, which could even exacerbate the quality of
graph representations. In this work, we propose a novel Variational Information
Bottleneck guided Graph Structure Learning framework, namely VIB-GSL, in the
perspective of information theory. VIB-GSL advances the Information Bottleneck
(IB) principle for graph structure learning, providing a more elegant and
universal framework for mining underlying task-relevant relations. VIB-GSL
learns an informative and compressive graph structure to distill the actionable
information for specific downstream tasks. VIB-GSL deduces a variational
approximation for irregular graph data to form a tractable IB objective
function, which facilitates training stability. Extensive experimental results
demonstrate that the superior effectiveness and robustness of VIB-GSL.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は幅広いアプリケーションに対して有望な結果を示している。
gnnのほとんどの実証研究は観測されたグラフを直接入力として取り、観測された構造がノード間の正確かつ完全な関係を完全に描写していると仮定している。
しかし、実世界のグラフは必然的にノイズや不完全であり、グラフ表現の質を悪化させるかもしれない。
本研究では,情報理論の観点から,新しい変分情報ボトルネック型グラフ構造学習フレームワーク,すなわちVIB-GSLを提案する。
VIB-GSLは、グラフ構造学習のためのInformation Bottleneck(IB)原則を進化させ、基礎となるタスク関連関係をマイニングするためのよりエレガントで普遍的なフレームワークを提供する。
VIB-GSLは情報的かつ圧縮的なグラフ構造を学習し、特定の下流タスクに対して実行可能な情報を蒸留する。
VIB-GSLは不規則グラフデータの変分近似を導出し、トラクタブルなIB目的関数を形成し、トレーニングの安定性を促進する。
実験結果より, VIB-GSLの有効性とロバスト性は良好であった。
関連論文リスト
- Robust Graph Structure Learning with the Alignment of Features and
Adjacency Matrix [8.711977569042865]
クリーンなグラフ構造とそれに対応する表現を共同で学習するグラフ構造学習(GSL)には,多くのアプローチが提案されている。
本稿では,特に特徴情報とグラフ情報の整合性を考慮した新しい正規化GSL手法を提案する。
本手法の有効性を評価するために,実世界のグラフを用いて実験を行った。
論文 参考訳(メタデータ) (2023-07-05T09:05:14Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Improving Subgraph Recognition with Variational Graph Information
Bottleneck [62.69606854404757]
部分グラフ認識は、グラフ特性に最も有益であるグラフの圧縮された部分構造を発見することを目的としている。
本稿では,サブグラフ内の情報を圧縮するためのノイズ注入手法を提案する。
論文 参考訳(メタデータ) (2021-12-18T10:51:13Z) - Recognizing Predictive Substructures with Subgraph Information
Bottleneck [97.19131149357234]
IB-subgraph というサブグラフを認識するための新しいサブグラフ情報ボトルネック(SIB)フレームワークを提案する。
相互情報の抽出性とグラフデータの離散的性質は、SIBの目的を最適化することが難しいことで知られている。
グラフ学習と大規模ポイントクラウドタスクの実験は、ib-subgraphの優れた特性を示している。
論文 参考訳(メタデータ) (2021-03-20T11:19:43Z) - Deep Graph Structure Learning for Robust Representations: A Survey [20.564611153151834]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの解析に広く利用されている。
GNNモデルの堅牢性を改善するため、グラフ構造学習の中心概念を中心に多くの研究が提案されている。
論文 参考訳(メタデータ) (2021-03-04T13:49:25Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。