論文の概要: CogDL: An Extensive Toolkit for Deep Learning on Graphs
- arxiv url: http://arxiv.org/abs/2103.00959v1
- Date: Mon, 1 Mar 2021 12:35:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:59:17.003646
- Title: CogDL: An Extensive Toolkit for Deep Learning on Graphs
- Title(参考訳): CogDL: グラフのディープラーニングのための拡張ツールキット
- Authors: Yukuo Cen, Zhenyu Hou, Yan Wang, Qibin Chen, Yizhen Luo, Xingcheng
Yao, Aohan Zeng, Shiguang Guo, Peng Zhang, Guohao Dai, Yu Wang, Chang Zhou,
Hongxia Yang, Jie Tang
- Abstract要約: グラフの深層学習のための広範な研究ツールキットであるCogDLを紹介する。
グラフ領域で最も重要なタスクの標準的なトレーニングと評価を提供します。
我々は,AMinerにおける実世界のアプリケーションにおけるCogDLの有効性を実証する。
- 参考スコア(独自算出の注目度): 40.442343297718814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning aims to learn low-dimensional node embeddings
for graphs. It is used in several real-world applications such as social
network analysis and large-scale recommender systems. In this paper, we
introduce CogDL, an extensive research toolkit for deep learning on graphs that
allows researchers and developers to easily conduct experiments and build
applications. It provides standard training and evaluation for the most
important tasks in the graph domain, including node classification, link
prediction, graph classification, and other graph tasks. For each task, it
offers implementations of state-of-the-art models. The models in our toolkit
are divided into two major parts, graph embedding methods and graph neural
networks. Most of the graph embedding methods learn node-level or graph-level
representations in an unsupervised way and preserves the graph properties such
as structural information, while graph neural networks capture node features
and work in semi-supervised or self-supervised settings. All models implemented
in our toolkit can be easily reproducible for leaderboard results. Most models
in CogDL are developed on top of PyTorch, and users can leverage the advantages
of PyTorch to implement their own models. Furthermore, we demonstrate the
effectiveness of CogDL for real-world applications in AMiner, which is a large
academic database and system.
- Abstract(参考訳): グラフ表現学習は、グラフの低次元ノード埋め込みを学ぶことを目的としている。
ソーシャルネットワーク分析や大規模リコメンデータシステムなど、現実のいくつかのアプリケーションで使用されている。
本論文では,研究者や開発者が容易に実験やアプリケーション構築を行うことができるグラフの深層学習のための広範な研究ツールキットであるCogDLについて紹介する。
ノード分類、リンク予測、グラフ分類、その他のグラフタスクを含む、グラフ領域で最も重要なタスクに対する標準的なトレーニングと評価を提供する。
各タスクに対して、最先端モデルの実装を提供する。
我々のツールキットのモデルは、グラフ埋め込み法とグラフニューラルネットワークの2つの主要な部分に分けられる。
グラフ埋め込みメソッドのほとんどは、ノードレベルまたはグラフレベルの表現を監視されていない方法で学習し、構造情報などのグラフプロパティを保存し、グラフニューラルネットワークはノードの特徴をキャプチャし、半監視または自己監視設定で動作します。
私たちのツールキットで実装されたすべてのモデルは、リーダーボードの結果を簡単に再現できます。
CogDLのほとんどのモデルはPyTorch上に開発されており、ユーザーはPyTorchの利点を利用して独自のモデルを実装することができる。
さらに、大規模な学術データベースとシステムであるAMinerにおける実世界のアプリケーションに対するCogDLの有効性を実証する。
関連論文リスト
- Learning From Graph-Structured Data: Addressing Design Issues and Exploring Practical Applications in Graph Representation Learning [2.492884361833709]
グラフ表現学習とグラフニューラルネットワーク(GNN)の最近の進歩を概観する。
グラフ構造化データを扱うように設計されたGNNは、複雑な関係情報から洞察と予測を引き出すのに長けている。
我々の研究は、GNNの能力を掘り下げ、その基礎設計と現実の課題に対処するための応用について調べている。
論文 参考訳(メタデータ) (2024-11-09T19:10:33Z) - Graph Structure Prompt Learning: A Novel Methodology to Improve Performance of Graph Neural Networks [13.655670509818144]
グラフネットワーク(GNN)のトレーニングを強化するための新しいグラフ構造Prompt Learning法(GPL)を提案する。
GPLはタスク非依存のグラフ構造損失を利用して、GNNが下流タスクを同時に解決しながら固有のグラフ特性を学習することを奨励している。
11の実世界のデータセットの実験では、ニューラルネットワークによってトレーニングされた後、GNNはノード分類、グラフ分類、エッジタスクにおいて、元のパフォーマンスを大幅に上回った。
論文 参考訳(メタデータ) (2024-07-16T03:59:18Z) - MuseGraph: Graph-oriented Instruction Tuning of Large Language Models
for Generic Graph Mining [41.19687587548107]
グラフニューラルネットワーク(GNN)は、異なるグラフタスクやデータセットに適用されるたびに、再トレーニングされる必要がある。
GNNとLarge Language Models(LLM)の強みをシームレスに統合する新しいフレームワークMusteGraphを提案する。
実験結果から,異なるグラフタスクの大幅な改善が示された。
論文 参考訳(メタデータ) (2024-03-02T09:27:32Z) - LasTGL: An Industrial Framework for Large-Scale Temporal Graph Learning [61.4707298969173]
本稿では,共通時間グラフ学習アルゴリズムの統一的および統一的な実装を統合する産業用フレームワークであるLasTGLを紹介する。
LasTGLは、詳細なチュートリアルとともに、包括的な時間グラフデータセット、TGNNモデル、ユーティリティを提供する。
論文 参考訳(メタデータ) (2023-11-28T08:45:37Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - GraphTheta: A Distributed Graph Neural Network Learning System With
Flexible Training Strategy [5.466414428765544]
新しい分散グラフ学習システムGraphThetaを紹介します。
複数のトレーニング戦略をサポートし、大規模グラフ上で効率的でスケーラブルな学習を可能にします。
この仕事は、文学における10億規模のネットワーク上で実施された最大のエッジアトリビュートGNN学習タスクを表します。
論文 参考訳(メタデータ) (2021-04-21T14:51:33Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。