論文の概要: OpenGSL: A Comprehensive Benchmark for Graph Structure Learning
- arxiv url: http://arxiv.org/abs/2306.10280v1
- Date: Sat, 17 Jun 2023 07:22:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 23:26:59.217044
- Title: OpenGSL: A Comprehensive Benchmark for Graph Structure Learning
- Title(参考訳): OpenGSL: グラフ構造学習のための総合ベンチマーク
- Authors: Zhiyao Zhou, Sheng Zhou, Bochao Mao, Xuanyi Zhou, Jiawei Chen, Qiaoyu
Tan, Daochen Zha, Can Wang, Yan Feng, Chun Chen
- Abstract要約: グラフ構造学習(GSL)の最初の包括的なベンチマークであるOpenGSLを紹介する。
OpenGSLは、様々な一般的なデータセットで評価することで、最先端のGSLメソッドの公平な比較を可能にする。
我々は,既存のGSL法がバニラGNN法よりも常に優れていないことを観察する。
- 参考スコア(独自算出の注目度): 33.195686037232605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as the de facto standard for
representation learning on graphs, owing to their ability to effectively
integrate graph topology and node attributes. However, the inherent suboptimal
nature of node connections, resulting from the complex and contingent formation
process of graphs, presents significant challenges in modeling them
effectively. To tackle this issue, Graph Structure Learning (GSL), a family of
data-centric learning approaches, has garnered substantial attention in recent
years. The core concept behind GSL is to jointly optimize the graph structure
and the corresponding GNN models. Despite the proposal of numerous GSL methods,
the progress in this field remains unclear due to inconsistent experimental
protocols, including variations in datasets, data processing techniques, and
splitting strategies. In this paper, we introduce OpenGSL, the first
comprehensive benchmark for GSL, aimed at addressing this gap. OpenGSL enables
a fair comparison among state-of-the-art GSL methods by evaluating them across
various popular datasets using uniform data processing and splitting
strategies. Through extensive experiments, we observe that existing GSL methods
do not consistently outperform vanilla GNN counterparts. However, we do observe
that the learned graph structure demonstrates a strong generalization ability
across different GNN backbones, despite its high computational and space
requirements. We hope that our open-sourced library will facilitate rapid and
equitable evaluation and inspire further innovative research in the field of
GSL. The code of the benchmark can be found in
https://github.com/OpenGSL/OpenGSL.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフトポロジとノード属性を効果的に統合する能力のため、グラフ上での表現学習のデファクトスタンダードとして登場した。
しかし、グラフの複雑で連続的な生成過程から生じるノード接続の固有な最適部分性質は、それらを効果的にモデル化する上で大きな課題を提起する。
この問題に対処するために、データ中心の学習アプローチのファミリであるグラフ構造学習(GSL)が近年注目を集めている。
GSLの中核となる概念は、グラフ構造と対応するGNNモデルを協調的に最適化することである。
多くのGSL手法の提案にもかかわらず、データセットのバリエーション、データ処理技術、分割戦略など、一貫性のない実験プロトコルのため、この分野の進展はいまだ不明である。
本稿では,このギャップに対処することを目的とした,GSLの最初の総合ベンチマークであるOpenGSLを紹介する。
OpenGSLは、均一なデータ処理と分割戦略を使用して、様々な一般的なデータセットで評価することで、最先端のGSLメソッドの公平な比較を可能にする。
広範な実験により、既存のGSL法はバニラGNN法よりも一貫して優れているわけではないことが観察された。
しかし,学習グラフ構造は計算量や空間要件が高いにもかかわらず,様々なgnnバックボーンにわたって強力な一般化能力を示すことが観察できる。
当社のオープンソースライブラリが,迅速かつ公平な評価を促進し,gsl分野でのさらなる革新的研究を促進することを願っています。
ベンチマークのコードはhttps://github.com/OpenGSL/OpenGSLで確認できる。
関連論文リスト
- Rethinking Structure Learning For Graph Neural Networks [16.753943955505406]
グラフ構造学習(GSL)は、元のグラフ構造を再構築または洗練するために広く応用されている。
GSLは一般にGNNの性能を改善すると考えられているが、その効果を定量化するための理論的分析は存在しない。
本稿では,GSLベース,新しい構造構築,ビュー融合という3つのステップを含む新しいGSLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-12T09:39:22Z) - GraphEdit: Large Language Models for Graph Structure Learning [62.618818029177355]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - GSLB: The Graph Structure Learning Benchmark [34.859275408785614]
グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のパラメータと計算グラフ構造の両方を同時に最適化する能力のため、近年注目されている。
パフォーマンス評価の標準的な実験的な設定や公正な比較は存在せず、この分野の進歩を理解するのに大きな障害を生み出します。
グラフ構造学習ベンチマーク (GSLB) を開発した。
論文 参考訳(メタデータ) (2023-10-08T14:13:03Z) - Robust Graph Structure Learning with the Alignment of Features and
Adjacency Matrix [8.711977569042865]
クリーンなグラフ構造とそれに対応する表現を共同で学習するグラフ構造学習(GSL)には,多くのアプローチが提案されている。
本稿では,特に特徴情報とグラフ情報の整合性を考慮した新しい正規化GSL手法を提案する。
本手法の有効性を評価するために,実世界のグラフを用いて実験を行った。
論文 参考訳(メタデータ) (2023-07-05T09:05:14Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Deep Graph Structure Learning for Robust Representations: A Survey [20.564611153151834]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの解析に広く利用されている。
GNNモデルの堅牢性を改善するため、グラフ構造学習の中心概念を中心に多くの研究が提案されている。
論文 参考訳(メタデータ) (2021-03-04T13:49:25Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z) - Self-supervised Learning on Graphs: Deep Insights and New Direction [66.78374374440467]
自己教師付き学習(SSL)は、ラベルのないデータにドメイン固有のプレテキストタスクを作成することを目的としている。
グラフニューラルネットワーク(GNN)の形でのグラフ領域へのディープラーニングの一般化への関心が高まっている。
論文 参考訳(メタデータ) (2020-06-17T20:30:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。