論文の概要: Towards Unsupervised Deep Graph Structure Learning
- arxiv url: http://arxiv.org/abs/2201.06367v1
- Date: Mon, 17 Jan 2022 11:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 12:10:54.093285
- Title: Towards Unsupervised Deep Graph Structure Learning
- Title(参考訳): 教師なし深層グラフ構造学習に向けて
- Authors: Yixin Liu, Yu Zheng, Daokun Zhang, Hongxu Chen, Hao Peng, Shirui Pan
- Abstract要約: 本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
- 参考スコア(独自算出の注目度): 67.58720734177325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, graph neural networks (GNNs) have emerged as a successful
tool in a variety of graph-related applications. However, the performance of
GNNs can be deteriorated when noisy connections occur in the original graph
structures; besides, the dependence on explicit structures prevents GNNs from
being applied to general unstructured scenarios. To address these issues,
recently emerged deep graph structure learning (GSL) methods propose to jointly
optimize the graph structure along with GNN under the supervision of a node
classification task. Nonetheless, these methods focus on a supervised learning
scenario, which leads to several problems, i.e., the reliance on labels, the
bias of edge distribution, and the limitation on application tasks. In this
paper, we propose a more practical GSL paradigm, unsupervised graph structure
learning, where the learned graph topology is optimized by data itself without
any external guidance (i.e., labels). To solve the unsupervised GSL problem, we
propose a novel StrUcture Bootstrapping contrastive LearnIng fraMEwork (SUBLIME
for abbreviation) with the aid of self-supervised contrastive learning.
Specifically, we generate a learning target from the original data as an
"anchor graph", and use a contrastive loss to maximize the agreement between
the anchor graph and the learned graph. To provide persistent guidance, we
design a novel bootstrapping mechanism that upgrades the anchor graph with
learned structures during model learning. We also design a series of graph
learners and post-processing schemes to model the structures to learn.
Extensive experiments on eight benchmark datasets demonstrate the significant
effectiveness of our proposed SUBLIME and high quality of the optimized graphs.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連アプリケーションで成功したツールとして登場している。
しかし、元のグラフ構造にノイズのある接続が発生すると、GNNの性能は低下し、また明示的な構造への依存により、GNNが一般的な非構造的シナリオに適用されるのを防ぐことができる。
これらの問題に対処するため,最近登場したディープグラフ構造学習(GSL)手法は,ノード分類タスクの監督の下でGNNと共同でグラフ構造を最適化することを提案する。
それでもこれらの方法は教師付き学習シナリオに焦点を当てており、ラベルへの依存、エッジ分布のバイアス、アプリケーションタスクの制限など、いくつかの問題を引き起こす。
本稿では、学習したグラフトポロジを外部ガイダンス(ラベルなど)なしでデータ自身で最適化する、より実用的なGSLパラダイム、教師なしグラフ構造学習を提案する。
本稿では,教師なしgsl問題を解決するために,自己教師なしコントラスト学習を支援する新しい構造ブートストラップ型コントラスト学習フレームワーク(略語)を提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
永続的な指導を提供するため,モデル学習中にアンカーグラフを学習構造にアップグレードする新しいブートストラップ機構を設計する。
また,学習する構造をモデル化するために,グラフ学習者および後処理スキームも設計した。
8つのベンチマークデータセットに対する大規模な実験により,提案したSUBLIMEの有効性と最適化グラフの高品質性を示した。
関連論文リスト
- Variational Graph Auto-Encoder Based Inductive Learning Method for Semi-Supervised Classification [10.497590357666114]
帰納的グラフ表現学習のための自己ラベル拡張VGAEモデルを提案する。
学習にラベル情報を活用するため,本モデルではノードラベルをワンホット符号化入力とし,モデルトレーニングにおいてラベル再構成を行う。
提案したモデルアーカイブは、セミ教師付き学習環境下でのノード分類において、特に優越する結果を約束する。
論文 参考訳(メタデータ) (2024-03-26T08:59:37Z) - GraphEdit: Large Language Models for Graph Structure Learning [62.618818029177355]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Deep Graph Structure Learning for Robust Representations: A Survey [20.564611153151834]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの解析に広く利用されている。
GNNモデルの堅牢性を改善するため、グラフ構造学習の中心概念を中心に多くの研究が提案されている。
論文 参考訳(メタデータ) (2021-03-04T13:49:25Z) - SLAPS: Self-Supervision Improves Structure Learning for Graph Neural
Networks [14.319159694115655]
本稿では,自己超越によるグラフ構造推定のためのより監督的な手法として,自己超越による適応学習とGNNパラメータの同時学習(SLAPS)を提案する。
包括的な実験的研究により、SLAPSは数十万のノードを持つ大きなグラフにスケールし、確立されたベンチマーク上でタスク固有のグラフ構造を学ぶために提案されたいくつかのモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-02-09T18:56:01Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。