論文の概要: Self-organization Preserved Graph Structure Learning with Principle of
Relevant Information
- arxiv url: http://arxiv.org/abs/2301.00015v1
- Date: Fri, 30 Dec 2022 16:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:09:10.211520
- Title: Self-organization Preserved Graph Structure Learning with Principle of
Relevant Information
- Title(参考訳): 関連情報に基づく自己組織化保存グラフ構造学習
- Authors: Qingyun Sun, Jianxin Li, Beining Yang, Xingcheng Fu, Hao Peng, Philip
S. Yu
- Abstract要約: PRI-GSLは、自己組織化を特定し、隠された構造を明らかにするグラフ構造学習フレームワークである。
PRI-GSLは、フォン・ノイマンエントロピーと量子ジェンセン=シャノンの発散によって定量化された最も関連性が最も低い冗長な情報を含む構造を学ぶ。
- 参考スコア(独自算出の注目度): 72.83485174169027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most Graph Neural Networks follow the message-passing paradigm, assuming the
observed structure depicts the ground-truth node relationships. However, this
fundamental assumption cannot always be satisfied, as real-world graphs are
always incomplete, noisy, or redundant. How to reveal the inherent graph
structure in a unified way remains under-explored. We proposed PRI-GSL, a Graph
Structure Learning framework guided by the Principle of Relevant Information,
providing a simple and unified framework for identifying the self-organization
and revealing the hidden structure. PRI-GSL learns a structure that contains
the most relevant yet least redundant information quantified by von Neumann
entropy and Quantum Jensen-Shannon divergence. PRI-GSL incorporates the
evolution of quantum continuous walk with graph wavelets to encode node
structural roles, showing in which way the nodes interplay and self-organize
with the graph structure. Extensive experiments demonstrate the superior
effectiveness and robustness of PRI-GSL.
- Abstract(参考訳): ほとんどのグラフニューラルネットワークは、観測された構造が接地ノードの関係を描写していると仮定して、メッセージパッシングパラダイムに従う。
しかし、実世界のグラフは常に不完全、ノイズ、冗長であるため、この基本的な仮定は常に満足できない。
統一的な方法で固有のグラフ構造を明らかにする方法は、未検討のままである。
pri-gslは,関連情報の原則に導かれるグラフ構造学習フレームワークであり,自己組織化を識別し,隠れ構造を明らかにするための,単純で統一的なフレームワークを提供する。
PRI-GSLは、フォン・ノイマンエントロピーと量子ジェンセン=シャノン発散によって定量化された最も関連性が最も低い冗長情報を含む構造を学ぶ。
PRI-GSLは、グラフウェーブレットによる量子連続歩行の進化を取り入れ、ノード構造の役割を符号化し、ノードがグラフ構造と相互作用し自己組織化する様子を示す。
大規模な実験はPRI-GSLの優れた有効性と堅牢性を示す。
関連論文リスト
- GaGSL: Global-augmented Graph Structure Learning via Graph Information Bottleneck [5.943641527857957]
我々は,TextitGlobal-augmented Graph Structure Learning (GaGSL) という新しい手法を提案する。
GaGSLの背景にある重要な考え方は、ノード分類タスクのためのコンパクトで情報的なグラフ構造を学ぶことである。
さまざまなデータセットにわたる包括的な評価は、最先端の手法と比較して、GaGSLの優れた性能と堅牢性を示している。
論文 参考訳(メタデータ) (2024-11-07T01:23:48Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Structure-Preserving Graph Representation Learning [43.43429108503634]
本研究では,グラフの構造情報を完全にキャプチャする構造保存グラフ表現学習(SPGRL)手法を提案する。
具体的には、元のグラフの不確かさと誤情報を減らすために、k-Nearest Neighbor法による補完的なビューとして特徴グラフを構築する。
本手法は、半教師付きノード分類タスクにおいて非常に優れた性能を示し、グラフ構造やノード特徴に対するノイズ摂動下での堅牢性に優れる。
論文 参考訳(メタデータ) (2022-09-02T02:49:19Z) - Compact Graph Structure Learning via Mutual Information Compression [79.225671302689]
グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のグラフ構造と学習パラメータを最適化する能力に大きな注目を集めている。
我々は、MI圧縮によるコンパクトGSLアーキテクチャ、CoGSLを提案する。
クリーンで攻撃的な条件下で複数のデータセットに対して広範な実験を行い、CoGSLの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2022-01-14T16:22:33Z) - Graph Structure Learning with Variational Information Bottleneck [70.62851953251253]
本稿では,新しい変分情報ボトルネックガイド付きグラフ構造学習フレームワーク,すなわちVIB-GSLを提案する。
VIB-GSLは情報的かつ圧縮的なグラフ構造を学習し、特定の下流タスクに対して実行可能な情報を蒸留する。
論文 参考訳(メタデータ) (2021-12-16T14:22:13Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。