論文の概要: Towards Better Dynamic Graph Learning: New Architecture and Unified
Library
- arxiv url: http://arxiv.org/abs/2303.13047v1
- Date: Thu, 23 Mar 2023 05:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 15:32:02.675339
- Title: Towards Better Dynamic Graph Learning: New Architecture and Unified
Library
- Title(参考訳): 動的グラフ学習の改善に向けて: 新しいアーキテクチャと統一ライブラリ
- Authors: Le Yu, Leilei Sun, Bowen Du, Weifeng Lv
- Abstract要約: DyGFormerは、動的グラフ学習のためのTransformerベースのアーキテクチャである。
DyGLibは、標準のトレーニングパイプライン、コーディングインターフェース、包括的な評価プロトコルを備えた統一ライブラリである。
- 参考スコア(独自算出の注目度): 35.66483247819115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose DyGFormer, a new Transformer-based architecture for dynamic graph
learning that solely learns from the sequences of nodes' historical first-hop
interactions. DyGFormer incorporates two distinct designs: a neighbor
co-occurrence encoding scheme that explores the correlations of the source node
and destination node based on their sequences; a patching technique that
divides each sequence into multiple patches and feeds them to Transformer,
allowing the model to effectively and efficiently benefit from longer
histories. We also introduce DyGLib, a unified library with standard training
pipelines, extensible coding interfaces, and comprehensive evaluating protocols
to promote reproducible, scalable, and credible dynamic graph learning
research. By performing extensive experiments on thirteen datasets from various
domains for transductive/inductive dynamic link prediction and dynamic node
classification tasks, we observe that: DyGFormer achieves state-of-the-art
performance on most of the datasets, demonstrating the effectiveness of
capturing nodes' correlations and long-term temporal dependencies; the results
of baselines vary across different datasets and some findings are inconsistent
with previous reports, which may be caused by their diverse pipelines and
problematic implementations. We hope our work can provide new insights and
facilitate the development of the dynamic graph learning field. All the
resources including datasets, data loaders, algorithms, and executing scripts
are publicly available at https://github.com/yule-BUAA/DyGLib.
- Abstract(参考訳): 我々はdygformerを提案する。dygformerは動的グラフ学習のための新しいトランスフォーマーアーキテクチャで、ノードの歴史的なファーストホップインタラクションのシーケンスからのみ学習する。
DyGFormerは、2つの異なる設計を取り入れている: ソースノードと宛先ノードの相関関係をそれらのシーケンスに基づいて探索する隣人の共起符号化スキーム; 各シーケンスを複数のパッチに分割し、Transformerにフィードするパッチ技術。
また、標準的なトレーニングパイプライン、拡張可能なコーディングインターフェース、再現可能でスケーラブルで信頼性の高い動的グラフ学習研究を促進する包括的な評価プロトコルを備えた統合ライブラリDyGLibも導入した。
By performing extensive experiments on thirteen datasets from various domains for transductive/inductive dynamic link prediction and dynamic node classification tasks, we observe that: DyGFormer achieves state-of-the-art performance on most of the datasets, demonstrating the effectiveness of capturing nodes' correlations and long-term temporal dependencies; the results of baselines vary across different datasets and some findings are inconsistent with previous reports, which may be caused by their diverse pipelines and problematic implementations.
我々の研究が新たな洞察を与え、動的グラフ学習分野の開発を促進することを願っている。
データセット、データローダ、アルゴリズム、実行スクリプトを含むすべてのリソースはhttps://github.com/yule-BUAA/DyGLibで公開されている。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Learning Long Range Dependencies on Graphs via Random Walks [6.7864586321550595]
メッセージパッシンググラフニューラルネットワーク(GNN)は、局所的な関係を捉えるのに優れているが、グラフの長距離依存に苦慮している。
グラフ変換器(GT)はグローバルな情報交換を可能にするが、グラフを固定長ベクトルの集合として表現することでグラフ構造を単純化することが多い。
この研究は、ランダムウォークの長距離情報とローカルメッセージパッシングを組み合わせることによって、両方のアプローチの欠点を克服する新しいアーキテクチャを導入する。
論文 参考訳(メタデータ) (2024-06-05T15:36:57Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - An Empirical Evaluation of Temporal Graph Benchmark [1.4211059618531252]
動的グラフライブラリ(DyGLib)をTGBに拡張することにより,時間グラフベンチマーク(TGB)の実証評価を行う。
その結果,(1) 異なるモデルでは, 過去の観測結果と一致して, 様々なデータセットに対して異なる性能を示すこと, (2) DyGLib を用いた場合の報告結果よりも, ベースラインの性能が著しく向上することが判明した。
論文 参考訳(メタデータ) (2023-07-24T03:52:11Z) - Instant Representation Learning for Recommendation over Large Dynamic
Graphs [29.41179019520622]
動的多重多元グラフのための新しいグラフニューラルネットワークSUPAを提案する。
新しいエッジごとに、SUPAは影響のあるサブグラフをサンプリングし、2つの対話ノードの表現を更新し、その相互作用情報をサンプリングされたサブグラフに伝達する。
SuPAをオンラインでインクリメンタルにトレーニングするために、大規模な動的グラフのシングルパストレーニングのための効率的なワークフローであるInsLearnを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:36:10Z) - DORE: Document Ordered Relation Extraction based on Generative Framework [56.537386636819626]
本稿では,既存のDocREモデルの根本原因について検討する。
本稿では,モデルが学習しやすく,決定論的な関係行列から記号列と順序列を生成することを提案する。
4つのデータセットに対する実験結果から,提案手法は生成型DocREモデルの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-10-28T11:18:10Z) - From Discrimination to Generation: Knowledge Graph Completion with
Generative Transformer [41.69537736842654]
我々は、知識グラフ補完を事前学習された言語モデルを用いて、シーケンスからシーケンスへ変換するGenKGCのアプローチを提案する。
本稿では,より優れた表現学習と高速推論を実現するために,関係誘導型実演と実体認識型階層デコーディングを導入する。
また、研究目的のために、新しい大規模中国の知識グラフデータセットAliopenKG500もリリースした。
論文 参考訳(メタデータ) (2022-02-04T12:52:32Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。