論文の概要: Learning Strong Graph Neural Networks with Weak Information
- arxiv url: http://arxiv.org/abs/2305.18457v1
- Date: Mon, 29 May 2023 04:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 20:45:22.945038
- Title: Learning Strong Graph Neural Networks with Weak Information
- Title(参考訳): 弱情報を用いた強グラフニューラルネットワークの学習
- Authors: Yixin Liu, Kaize Ding, Jianling Wang, Vincent Lee, Huan Liu, Shirui
Pan
- Abstract要約: 我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
- 参考スコア(独自算出の注目度): 64.64996100343602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have exhibited impressive performance in many
graph learning tasks. Nevertheless, the performance of GNNs can deteriorate
when the input graph data suffer from weak information, i.e., incomplete
structure, incomplete features, and insufficient labels. Most prior studies,
which attempt to learn from the graph data with a specific type of weak
information, are far from effective in dealing with the scenario where diverse
data deficiencies exist and mutually affect each other. To fill the gap, in
this paper, we aim to develop an effective and principled approach to the
problem of graph learning with weak information (GLWI). Based on the findings
from our empirical analysis, we derive two design focal points for solving the
problem of GLWI, i.e., enabling long-range propagation in GNNs and allowing
information propagation to those stray nodes isolated from the largest
connected component. Accordingly, we propose D$^2$PT, a dual-channel GNN
framework that performs long-range information propagation not only on the
input graph with incomplete structure, but also on a global graph that encodes
global semantic similarities. We further develop a prototype contrastive
alignment algorithm that aligns the class-level prototypes learned from two
channels, such that the two different information propagation processes can
mutually benefit from each other and the finally learned model can well handle
the GLWI problem. Extensive experiments on eight real-world benchmark datasets
demonstrate the effectiveness and efficiency of our proposed methods in various
GLWI scenarios.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くのグラフ学習タスクで素晴らしいパフォーマンスを示している。
それでも、入力グラフデータが弱い情報、すなわち不完全な構造、不完全な特徴、不十分なラベルに悩まされた場合、GNNの性能は低下する。
特定の種類の弱い情報でグラフデータから学習しようとするほとんどの先行研究は、多様なデータ不足が存在し、相互に影響を与え合うシナリオに対処するのに効果的ではない。
本稿では,このギャップを埋めるために,弱い情報(glwi)を用いたグラフ学習問題に対する効果的かつ原則的なアプローチを開発することを目的とする。
実験分析の結果から,gnnの長距離伝搬を可能にし,最大連結成分から分離した層状ノードへの情報伝達を可能にするという,glwiの問題を解決するための2つの設計焦点を導出した。
そこで我々は,不完全構造を持つ入力グラフだけでなく,大域的な意味的類似性を符号化する大域グラフ上でも長距離情報伝達を行う2チャネルgnnフレームワークであるd$^2$ptを提案する。
さらに,2つのチャネルから学習したクラスレベルのプロトタイプを整列させることにより,2つの異なる情報伝達プロセスが相互に利益を得ることができ,最終的に学習したモデルがGLWI問題にうまく対処できるような,コントラッシブアライメントアルゴリズムのプロトタイプを開発する。
8つの実世界のベンチマークデータセットに対する大規模な実験は,提案手法の有効性と有効性を示す。
関連論文リスト
- MDS-GNN: A Mutual Dual-Stream Graph Neural Network on Graphs with Incomplete Features and Structure [8.00268216176428]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから表現を分析し学習するための強力なツールとして登場した。
GNNの卓越した性能にとって重要な前提条件は、完全なグラフ情報の提供である。
本研究では,特徴と構造間の相互利益学習を実装した相互二重ストリームグラフニューラルネットワーク(MDS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:42:56Z) - Invariant Graph Learning Meets Information Bottleneck for Out-of-Distribution Generalization [9.116601683256317]
本研究では,情報ボトルネック理論に基づく不変グラフ学習(Invariant Graph Learning)という新しいフレームワークを提案する。
具体的には,環境要因に関連するタスク関連情報を圧縮する冗長フィルタを提案する。
合成と実世界の両方のデータセットを用いた実験により,OODの一般化による最先端性能の実現が実証された。
論文 参考訳(メタデータ) (2024-08-03T07:38:04Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Measuring and Sampling: A Metric-guided Subgraph Learning Framework for
Graph Neural Network [11.017348743924426]
グラフニューラルネットワーク(GNN)のためのMetric-Guided(MeGuide)サブグラフ学習フレームワークを提案する。
MeGuideでは、サブグラフサンプリングとミニバッチベースのトレーニングのガイドとして、Feature SmoothnessとConnection Failure Distanceという2つの新しいメトリクスを使用している。
複数のデータセット上で様々なGNNをトレーニングする上で,MeGuideの有効性と有効性を示す。
論文 参考訳(メタデータ) (2021-12-30T11:00:00Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。