論文の概要: CogDL: A Comprehensive Library for Graph Deep Learning
- arxiv url: http://arxiv.org/abs/2103.00959v4
- Date: Mon, 17 Apr 2023 10:44:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 01:31:46.739593
- Title: CogDL: A Comprehensive Library for Graph Deep Learning
- Title(参考訳): CogDL: グラフディープラーニングのための総合ライブラリ
- Authors: Yukuo Cen, Zhenyu Hou, Yan Wang, Qibin Chen, Yizhen Luo, Zhongming Yu,
Hengrui Zhang, Xingcheng Yao, Aohan Zeng, Shiguang Guo, Yuxiao Dong, Yang
Yang, Peng Zhang, Guohao Dai, Yu Wang, Chang Zhou, Hongxia Yang, Jie Tang
- Abstract要約: 研究者や実践者が実験を行い、メソッドを比較し、簡単かつ効率的にアプリケーションを構築することができるグラフ深層学習ライブラリであるCogDLを紹介します。
CogDLでは,様々なグラフタスクに対するGNNモデルのトレーニングと評価のための統一設計を提案し,既存のグラフ学習ライブラリに固有のものである。
我々はCogDLのための効率的なスパース演算子を開発し、効率性のための最も競争力のあるグラフライブラリとなる。
- 参考スコア(独自算出の注目度): 55.694091294633054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have attracted tremendous attention from the
graph learning community in recent years. It has been widely adopted in various
real-world applications from diverse domains, such as social networks and
biological graphs. The research and applications of graph deep learning present
new challenges, including the sparse nature of graph data, complicated training
of GNNs, and non-standard evaluation of graph tasks. To tackle the issues, we
present CogDL, a comprehensive library for graph deep learning that allows
researchers and practitioners to conduct experiments, compare methods, and
build applications with ease and efficiency. In CogDL, we propose a unified
design for the training and evaluation of GNN models for various graph tasks,
making it unique among existing graph learning libraries. By utilizing this
unified trainer, CogDL can optimize the GNN training loop with several training
techniques, such as mixed precision training. Moreover, we develop efficient
sparse operators for CogDL, enabling it to become the most competitive graph
library for efficiency. Another important CogDL feature is its focus on ease of
use with the aim of facilitating open and reproducible research of graph
learning. We leverage CogDL to report and maintain benchmark results on
fundamental graph tasks, which can be reproduced and directly used by the
community.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は近年,グラフ学習コミュニティから大きな注目を集めている。
ソーシャルネットワークや生物グラフなど、さまざまな分野の様々な現実世界のアプリケーションで広く採用されている。
グラフ深層学習の研究と応用は、グラフデータのスパースな性質、GNNの複雑な訓練、グラフタスクの非標準評価など、新しい課題を提示している。
この問題に対処するために、研究者や実践者が実験を行い、メソッドを比較し、簡単かつ効率的にアプリケーションを構築することができるグラフ深層学習のための包括的なライブラリであるCagDLを紹介します。
CogDLでは,様々なグラフタスクに対するGNNモデルのトレーニングと評価のための統一設計を提案し,既存のグラフ学習ライブラリに特有のものとなった。
この統一トレーナーを利用することで、cogdlは混合精度トレーニングのようないくつかのトレーニング技術でgnnトレーニングループを最適化することができる。
さらに,我々は,CogDLのための効率的なスパース演算子を開発し,効率向上のための最も競争力のあるグラフライブラリとなる。
もうひとつの重要なcogdl機能は、グラフ学習のオープンかつ再現可能な研究を促進することを目的とした、使いやすさを重視したものだ。
我々はCogDLを活用して,コミュニティが直接使用し,再現可能な基本グラフタスクのベンチマーク結果を報告し,維持する。
関連論文リスト
- Learning From Graph-Structured Data: Addressing Design Issues and Exploring Practical Applications in Graph Representation Learning [2.492884361833709]
グラフ表現学習とグラフニューラルネットワーク(GNN)の最近の進歩を概観する。
グラフ構造化データを扱うように設計されたGNNは、複雑な関係情報から洞察と予測を引き出すのに長けている。
我々の研究は、GNNの能力を掘り下げ、その基礎設計と現実の課題に対処するための応用について調べている。
論文 参考訳(メタデータ) (2024-11-09T19:10:33Z) - Graph Structure Prompt Learning: A Novel Methodology to Improve Performance of Graph Neural Networks [13.655670509818144]
グラフネットワーク(GNN)のトレーニングを強化するための新しいグラフ構造Prompt Learning法(GPL)を提案する。
GPLはタスク非依存のグラフ構造損失を利用して、GNNが下流タスクを同時に解決しながら固有のグラフ特性を学習することを奨励している。
11の実世界のデータセットの実験では、ニューラルネットワークによってトレーニングされた後、GNNはノード分類、グラフ分類、エッジタスクにおいて、元のパフォーマンスを大幅に上回った。
論文 参考訳(メタデータ) (2024-07-16T03:59:18Z) - MuseGraph: Graph-oriented Instruction Tuning of Large Language Models
for Generic Graph Mining [41.19687587548107]
グラフニューラルネットワーク(GNN)は、異なるグラフタスクやデータセットに適用されるたびに、再トレーニングされる必要がある。
GNNとLarge Language Models(LLM)の強みをシームレスに統合する新しいフレームワークMusteGraphを提案する。
実験結果から,異なるグラフタスクの大幅な改善が示された。
論文 参考訳(メタデータ) (2024-03-02T09:27:32Z) - LasTGL: An Industrial Framework for Large-Scale Temporal Graph Learning [61.4707298969173]
本稿では,共通時間グラフ学習アルゴリズムの統一的および統一的な実装を統合する産業用フレームワークであるLasTGLを紹介する。
LasTGLは、詳細なチュートリアルとともに、包括的な時間グラフデータセット、TGNNモデル、ユーティリティを提供する。
論文 参考訳(メタデータ) (2023-11-28T08:45:37Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - GraphTheta: A Distributed Graph Neural Network Learning System With
Flexible Training Strategy [5.466414428765544]
新しい分散グラフ学習システムGraphThetaを紹介します。
複数のトレーニング戦略をサポートし、大規模グラフ上で効率的でスケーラブルな学習を可能にします。
この仕事は、文学における10億規模のネットワーク上で実施された最大のエッジアトリビュートGNN学習タスクを表します。
論文 参考訳(メタデータ) (2021-04-21T14:51:33Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。