論文の概要: Compact Graph Structure Learning via Mutual Information Compression
- arxiv url: http://arxiv.org/abs/2201.05540v1
- Date: Fri, 14 Jan 2022 16:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 14:53:22.614060
- Title: Compact Graph Structure Learning via Mutual Information Compression
- Title(参考訳): 相互情報圧縮によるコンパクトグラフ構造学習
- Authors: Nian Liu, Xiao Wang, Lingfei Wu, Yu Chen, Xiaojie Guo, Chuan Shi
- Abstract要約: グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のグラフ構造と学習パラメータを最適化する能力に大きな注目を集めている。
我々は、MI圧縮によるコンパクトGSLアーキテクチャ、CoGSLを提案する。
クリーンで攻撃的な条件下で複数のデータセットに対して広範な実験を行い、CoGSLの有効性とロバスト性を実証した。
- 参考スコア(独自算出の注目度): 79.225671302689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Structure Learning (GSL) recently has attracted considerable attentions
in its capacity of optimizing graph structure as well as learning suitable
parameters of Graph Neural Networks (GNNs) simultaneously. Current GSL methods
mainly learn an optimal graph structure (final view) from single or multiple
information sources (basic views), however the theoretical guidance on what is
the optimal graph structure is still unexplored. In essence, an optimal graph
structure should only contain the information about tasks while compress
redundant noise as much as possible, which is defined as "minimal sufficient
structure", so as to maintain the accurancy and robustness. How to obtain such
structure in a principled way? In this paper, we theoretically prove that if we
optimize basic views and final view based on mutual information, and keep their
performance on labels simultaneously, the final view will be a minimal
sufficient structure. With this guidance, we propose a Compact GSL architecture
by MI compression, named CoGSL. Specifically, two basic views are extracted
from original graph as two inputs of the model, which are refinedly reestimated
by a view estimator. Then, we propose an adaptive technique to fuse estimated
views into the final view. Furthermore, we maintain the performance of
estimated views and the final view and reduce the mutual information of every
two views. To comprehensively evaluate the performance of CoGSL, we conduct
extensive experiments on several datasets under clean and attacked conditions,
which demonstrate the effectiveness and robustness of CoGSL.
- Abstract(参考訳): グラフ構造学習(GSL)は最近、グラフ構造を最適化する能力とグラフニューラルネットワーク(GNN)の適切なパラメータを同時に学習する能力に大きな注目を集めている。
現在のGSL法は主に単一または複数の情報ソース(基本ビュー)から最適グラフ構造(最終ビュー)を学習するが、最適グラフ構造とは何かに関する理論的ガイダンスはまだ探索されていない。
本質的には、最適なグラフ構造は、冗長なノイズを可能な限り圧縮しながらタスクに関する情報だけを含むべきである。
そのような構造を原則的にどうやって得るか?
本稿では,基本ビューと最終ビューを相互情報に基づいて最適化し,それらの性能をラベルに同時に保持すれば,最終ビューは最小限の構造となることを理論的に証明する。
そこで我々は,MI圧縮によるコンパクトGSLアーキテクチャ,CoGSLを提案する。
具体的には、モデルの2つの入力として元のグラフから2つの基本的なビューを抽出する。
次に,推定ビューを最終ビューに融合する適応手法を提案する。
さらに、推定ビューと最終ビューのパフォーマンスを維持し、2つのビュー毎の相互情報を低減する。
CoGSLの性能を総合的に評価するために、クリーンで攻撃的な条件下で複数のデータセットに対して広範な実験を行い、CoGSLの有効性と堅牢性を示す。
関連論文リスト
- GaGSL: Global-augmented Graph Structure Learning via Graph Information Bottleneck [5.943641527857957]
我々は,TextitGlobal-augmented Graph Structure Learning (GaGSL) という新しい手法を提案する。
GaGSLの背景にある重要な考え方は、ノード分類タスクのためのコンパクトで情報的なグラフ構造を学ぶことである。
さまざまなデータセットにわたる包括的な評価は、最先端の手法と比較して、GaGSLの優れた性能と堅牢性を示している。
論文 参考訳(メタデータ) (2024-11-07T01:23:48Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Self-organization Preserved Graph Structure Learning with Principle of
Relevant Information [72.83485174169027]
PRI-GSLは、自己組織化を特定し、隠された構造を明らかにするグラフ構造学習フレームワークである。
PRI-GSLは、フォン・ノイマンエントロピーと量子ジェンセン=シャノンの発散によって定量化された最も関連性が最も低い冗長な情報を含む構造を学ぶ。
論文 参考訳(メタデータ) (2022-12-30T16:02:02Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - Self-Supervised Graph Structure Refinement for Graph Neural Networks [31.924317784535155]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)の隣接行列の学習を目的としている
既存のGSLの作業の多くは、推定隣接行列とGNNパラメータを下流タスクに最適化した共同学習フレームワークを適用している。
プレトレイン-ファインチューンパイプラインを用いたグラフ構造改善(GSR)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T02:01:46Z) - Structure-Preserving Graph Representation Learning [43.43429108503634]
本研究では,グラフの構造情報を完全にキャプチャする構造保存グラフ表現学習(SPGRL)手法を提案する。
具体的には、元のグラフの不確かさと誤情報を減らすために、k-Nearest Neighbor法による補完的なビューとして特徴グラフを構築する。
本手法は、半教師付きノード分類タスクにおいて非常に優れた性能を示し、グラフ構造やノード特徴に対するノイズ摂動下での堅牢性に優れる。
論文 参考訳(メタデータ) (2022-09-02T02:49:19Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。