論文の概要: Towards Generalised Pre-Training of Graph Models
- arxiv url: http://arxiv.org/abs/2311.03976v3
- Date: Tue, 14 May 2024 12:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 19:31:02.602865
- Title: Towards Generalised Pre-Training of Graph Models
- Title(参考訳): グラフモデルの一般化事前学習に向けて
- Authors: Alex O. Davies, Riku W. Green, Nirav S. Ajmeri, Telmo M. Silva Filho,
- Abstract要約: 本稿では,ノードとエッジの特徴排除に基づくグラフ事前学習手法である,事前学習のためのトポロジーを提案する。
モデルは、事前トレーニングデータに存在しないドメインを含む複数のドメインから評価データセットをポジティブに転送する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The principal benefit of unsupervised representation learning is that a pre-trained model can be fine-tuned where data or labels are scarce. Existing approaches for graph representation learning are domain specific, maintaining consistent node and edge features across the pre-training and target datasets. This has precluded transfer to multiple domains. In this work we present Topology Only Pre-Training, a graph pre-training method based on node and edge feature exclusion. Separating graph learning into two stages, topology and features, we use contrastive learning to pre-train models over multiple domains. These models show positive transfer on evaluation datasets from multiple domains, including domains not present in pre-training data. On 75% of experiments, ToP models perform significantly ($P \leq 0.01$) better than a supervised baseline. These results include when node and edge features are used in evaluation, where performance is significantly better on 85.7% of tasks compared to single-domain or non-pre-trained models. We further show that out-of-domain topologies can produce more useful pre-training than in-domain. We show better transfer from non-molecule pre-training, compared to molecule pre-training, on 79% of molecular benchmarks.
- Abstract(参考訳): 教師なし表現学習の主な利点は、訓練済みのモデルをデータやラベルが不足している場所で微調整できることである。
グラフ表現学習の既存のアプローチはドメイン固有であり、事前トレーニングとターゲットデータセットをまたいだ一貫したノードとエッジ機能を維持している。
これは複数のドメインへの転送を妨げている。
本研究では,ノードとエッジの特徴排除に基づくグラフ事前学習手法であるトポロジーのみの事前学習を提案する。
グラフ学習をトポロジと特徴の2段階に分けて、コントラスト学習を用いて、複数のドメインにまたがるモデルの事前学習を行う。
これらのモデルでは、事前学習データに存在しない領域を含む複数の領域から評価データセットを肯定的に転送する。
75%の実験では、ToPモデルは教師付きベースラインよりも大幅にパフォーマンスが良い(P \leq 0.01$)。
これらの結果は、ノードとエッジが評価に使用される場合を含み、単一ドメインや非事前訓練モデルと比較して85.7%のタスクでパフォーマンスが大幅に向上する。
さらに、ドメイン外のトポロジは、ドメイン内よりもより有用な事前トレーニングを実現できることを示す。
分子ベンチマークの79%において,分子前訓練よりも分子前訓練が優れていることを示す。
関連論文リスト
- Better with Less: A Data-Active Perspective on Pre-Training Graph Neural
Networks [39.71761440499148]
グラフニューラルネットワーク(GNN)の事前トレーニングは、ラベルのないデータで下流タスクの転送可能な知識を学ぶことを目的としている。
より少ないが慎重に選択されたデータはGNNモデルに入力される。
実験の結果,提案手法により,より少ないトレーニングデータとより優れたダウンストリーム性能を有する効率的な事前学習モデルが得られることがわかった。
論文 参考訳(メタデータ) (2023-11-02T07:09:59Z) - When to Pre-Train Graph Neural Networks? From Data Generation
Perspective! [19.239863500722983]
グラフ事前トレーニングは、ラベルのないグラフデータから転送可能な知識を取得し、下流のパフォーマンスを改善することを目的としている。
本稿では,事前学習のタイミングを問う汎用フレームワークW2PGNNを提案する。
W2PGNNは、グラフ事前トレーニングモデルの適用範囲、事前トレーニングの実現可能性、下流のパフォーマンスを高めるために事前トレーニングデータを選択する支援の3つの幅広いアプリケーションを提供している。
論文 参考訳(メタデータ) (2023-03-29T05:05:02Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Pre-training Graph Neural Network for Cross Domain Recommendation [58.057687253631826]
推薦システムは、ユーザ/イテムの埋め込みを学習する中心となるアイテムに対するユーザの潜在的関心を予測する。
グラフ表現学習から事前学習を行う現代美術に着想を得て,クロスドメインレコメンデーションのための事前学習および微調整図を提案する。
我々は,グラフエンコーダの自己教師型事前学習を採用するPCRec (Pre-training Graph Neural Network for Cross-Domain Recommendation) を考案した。
論文 参考訳(メタデータ) (2021-11-16T07:34:42Z) - Efficient Variational Graph Autoencoders for Unsupervised Cross-domain
Prerequisite Chains [3.358838755118655]
本稿では,このドメイン間前提連鎖学習タスクを効率的に解くために,DAVGAE(Domain-versaational Variational Graph Autoencoders)を導入する。
我々の新しいモデルは変分グラフオートエンコーダ(VGAE)とドメイン識別器から構成される。
その結果,本モデルは1/10グラフスケールと1/3時間のみを用いて,最近のグラフベースの計算より優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-17T19:07:27Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。