論文の概要: GSLB: The Graph Structure Learning Benchmark
- arxiv url: http://arxiv.org/abs/2310.05174v1
- Date: Sun, 8 Oct 2023 14:13:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 11:55:26.368931
- Title: GSLB: The Graph Structure Learning Benchmark
- Title(参考訳): GSLB: グラフ構造学習ベンチマーク
- Authors: Zhixun Li, Liang Wang, Xin Sun, Yifan Luo, Yanqiao Zhu, Dingshuo Chen,
Yingtao Luo, Xiangxin Zhou, Qiang Liu, Shu Wu, Liang Wang, Jeffrey Xu Yu
- Abstract要約: グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のパラメータと計算グラフ構造の両方を同時に最適化する能力のため、近年注目されている。
パフォーマンス評価の標準的な実験的な設定や公正な比較は存在せず、この分野の進歩を理解するのに大きな障害を生み出します。
グラフ構造学習ベンチマーク (GSLB) を開発した。
- 参考スコア(独自算出の注目度): 34.859275408785614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Structure Learning (GSL) has recently garnered considerable attention
due to its ability to optimize both the parameters of Graph Neural Networks
(GNNs) and the computation graph structure simultaneously. Despite the
proliferation of GSL methods developed in recent years, there is no standard
experimental setting or fair comparison for performance evaluation, which
creates a great obstacle to understanding the progress in this field. To fill
this gap, we systematically analyze the performance of GSL in different
scenarios and develop a comprehensive Graph Structure Learning Benchmark (GSLB)
curated from 20 diverse graph datasets and 16 distinct GSL algorithms.
Specifically, GSLB systematically investigates the characteristics of GSL in
terms of three dimensions: effectiveness, robustness, and complexity. We
comprehensively evaluate state-of-the-art GSL algorithms in node- and
graph-level tasks, and analyze their performance in robust learning and model
complexity. Further, to facilitate reproducible research, we have developed an
easy-to-use library for training, evaluating, and visualizing different GSL
methods. Empirical results of our extensive experiments demonstrate the ability
of GSL and reveal its potential benefits on various downstream tasks, offering
insights and opportunities for future research. The code of GSLB is available
at: https://github.com/GSL-Benchmark/GSLB.
- Abstract(参考訳): グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のパラメータと計算グラフ構造の両方を同時に最適化する能力のため、近年注目されている。
近年のGSL法の普及にもかかわらず、性能評価のための標準的な実験的設定や公正比較は存在せず、この分野の進歩を理解する上で大きな障害となっている。
このギャップを埋めるために、異なるシナリオにおけるGSLの性能を体系的に分析し、20のグラフデータセットと16の異なるGSLアルゴリズムからなる総合的なグラフ構造学習ベンチマーク(GSLB)を開発する。
具体的には、GSLBはGSLの特徴を3次元(有効性、堅牢性、複雑さ)で体系的に研究する。
我々は,最先端のgslアルゴリズムをノードレベルおよびグラフレベルのタスクで包括的に評価し,頑健な学習とモデルの複雑さでその性能を分析する。
さらに,再現性のある研究を容易にするため,異なるGSL法を訓練,評価,可視化するための簡易ライブラリを開発した。
広範な実験の結果,gslの能力が実証され,下流タスクにおける潜在的メリットが明らかにされ,今後の研究への洞察と機会が得られた。
GSLBのコードは、https://github.com/GSL-Benchmark/GSLBで公開されている。
関連論文リスト
- Rethinking Structure Learning For Graph Neural Networks [16.753943955505406]
グラフ構造学習(GSL)は、元のグラフ構造を再構築または洗練するために広く応用されている。
GSLは一般にGNNの性能を改善すると考えられているが、その効果を定量化するための理論的分析は存在しない。
本稿では,GSLベース,新しい構造構築,ビュー融合という3つのステップを含む新しいGSLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-12T09:39:22Z) - Enhancing Graph Self-Supervised Learning with Graph Interplay [8.775644935074407]
Graph Interplay(GIP)は、様々な既存のGSSLメソッドを備えたパフォーマンスを大幅に向上させる革新的で汎用的なアプローチである。
GIPは、標準バッチ内でランダムなグラフ間エッジによる直接グラフレベルの通信を導入することを提唱している。
我々の実証研究は、GIPが広く普及しているGSSL法の性能を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-10-05T07:05:21Z) - Every Node is Different: Dynamically Fusing Self-Supervised Tasks for
Attributed Graph Clustering [59.45743537594695]
グラフクラスタリングのための動的Fusing Self-Supervised Learning (DyFSS)を提案する。
DyFSSは、ゲーティングネットワークから派生した異なる重みを使って、多様なSSLタスクから抽出された特徴を融合する。
実験では、DyFSSは最先端のマルチタスクSSLメソッドよりも精度が最大8.66%向上している。
論文 参考訳(メタデータ) (2024-01-12T14:24:10Z) - Robust Graph Structure Learning with the Alignment of Features and
Adjacency Matrix [8.711977569042865]
クリーンなグラフ構造とそれに対応する表現を共同で学習するグラフ構造学習(GSL)には,多くのアプローチが提案されている。
本稿では,特に特徴情報とグラフ情報の整合性を考慮した新しい正規化GSL手法を提案する。
本手法の有効性を評価するために,実世界のグラフを用いて実験を行った。
論文 参考訳(メタデータ) (2023-07-05T09:05:14Z) - OpenGSL: A Comprehensive Benchmark for Graph Structure Learning [40.50100033304329]
グラフ構造学習(GSL)の最初の包括的なベンチマークであるOpenGSLを紹介する。
OpenGSLは、様々な一般的なデータセットで評価することで、最先端のGSLメソッドの公平な比較を可能にする。
学習した構造のホモフィリィとタスクパフォーマンスとの間に有意な相関は見られず、共通の信念に挑戦する。
論文 参考訳(メタデータ) (2023-06-17T07:22:25Z) - On the Transferability of Visual Features in Generalized Zero-Shot
Learning [28.120004119724577]
Generalized Zero-Shot Learning (GZSL) は、目に見えないクラスに一般化可能な分類器を訓練することを目的としている。
本研究では,異なる特徴抽出器を用いた場合のGZSL法の有用性について検討する。
また、これらのモデルの事前学習目標、データセット、アーキテクチャ設計が特徴表現能力にどのように影響するかについても検討する。
論文 参考訳(メタデータ) (2022-11-22T18:59:09Z) - Compact Graph Structure Learning via Mutual Information Compression [79.225671302689]
グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のグラフ構造と学習パラメータを最適化する能力に大きな注目を集めている。
我々は、MI圧縮によるコンパクトGSLアーキテクチャ、CoGSLを提案する。
クリーンで攻撃的な条件下で複数のデータセットに対して広範な実験を行い、CoGSLの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2022-01-14T16:22:33Z) - Graph Structure Learning with Variational Information Bottleneck [70.62851953251253]
本稿では,新しい変分情報ボトルネックガイド付きグラフ構造学習フレームワーク,すなわちVIB-GSLを提案する。
VIB-GSLは情報的かつ圧縮的なグラフ構造を学習し、特定の下流タスクに対して実行可能な情報を蒸留する。
論文 参考訳(メタデータ) (2021-12-16T14:22:13Z) - Graph-based Semi-supervised Learning: A Comprehensive Review [51.26862262550445]
半教師付き学習(ssl)はラベル付きデータとラベルなしデータの両方を利用する能力があるため、実際非常に価値があります。
重要なSSLメソッドのクラスは、グラフベースの半教師付き学習(GSSL)メソッドに対応するグラフとしてデータを自然に表現することです。
GSSLメソッドは、構造のユニークさ、アプリケーションの普遍性、大規模データへのスケーラビリティのために、さまざまなドメインでその利点を実証しています。
論文 参考訳(メタデータ) (2021-02-26T05:11:09Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - Self-supervised Learning on Graphs: Deep Insights and New Direction [66.78374374440467]
自己教師付き学習(SSL)は、ラベルのないデータにドメイン固有のプレテキストタスクを作成することを目的としている。
グラフニューラルネットワーク(GNN)の形でのグラフ領域へのディープラーニングの一般化への関心が高まっている。
論文 参考訳(メタデータ) (2020-06-17T20:30:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。