論文の概要: Test-Time Training for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2210.08813v1
- Date: Mon, 17 Oct 2022 07:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 16:57:54.944403
- Title: Test-Time Training for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの試験時間トレーニング
- Authors: Yiqi Wang, Chaozhuo Li, Wei Jin, Rui Li, Jianan Zhao, Jiliang Tang,
Xing Xie
- Abstract要約: 本稿では,グラフ分類タスクのモデル一般化能力を高めるため,GNNの初となるテスト時間トレーニングフレームワークを紹介する。
特に、テストグラフサンプルごとにGNNモデルを調整するために、自己教師付き学習を用いた新しいテストタイムトレーニング戦略を設計する。
- 参考スコア(独自算出の注目度): 46.479026988929235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have made tremendous progress in the graph
classification task. However, a performance gap between the training set and
the test set has often been noticed. To bridge such gap, in this work we
introduce the first test-time training framework for GNNs to enhance the model
generalization capacity for the graph classification task. In particular, we
design a novel test-time training strategy with self-supervised learning to
adjust the GNN model for each test graph sample. Experiments on the benchmark
datasets have demonstrated the effectiveness of the proposed framework,
especially when there are distribution shifts between training set and test
set. We have also conducted exploratory studies and theoretical analysis to
gain deeper understandings on the rationality of the design of the proposed
graph test time training framework (GT3).
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ分類タスクにおいて大きく進歩している。
しかし、トレーニングセットとテストセットの間には、しばしばパフォーマンスのギャップがある。
このようなギャップを埋めるため,本研究では,グラフ分類タスクのモデル一般化能力を高めるため,GNNの初となるテスト時トレーニングフレームワークを導入する。
特に,各テストグラフサンプルに対するgnnモデルを調整するために,自己教師付き学習を用いた新しいテスト時間トレーニング戦略を設計する。
ベンチマークデータセットに関する実験は、特にトレーニングセットとテストセットの間に分散シフトがある場合、提案フレームワークの有効性を実証した。
また,提案するグラフテストタイムトレーニングフレームワーク(gt3)の設計の合理性についてより深く理解するために,探索的研究と理論的解析を行った。
関連論文リスト
- GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Fast and Effective GNN Training with Linearized Random Spanning Trees [20.73637495151938]
ノード分類タスクにおいて,GNNをトレーニングするための,より効果的でスケーラブルなフレームワークを提案する。
提案手法は, ランダムに分布する木々の広範囲に分布するGNN重みを徐々に改善する。
これらの経路グラフのスパース性は、GNN訓練の計算負担を大幅に軽減する。
論文 参考訳(メタデータ) (2023-06-07T23:12:42Z) - GraphTTA: Test Time Adaptation on Graph Neural Networks [10.582212966736645]
グラフニューラルネットワーク(GNN)のための新しいテスト時間適応戦略であるグラフ適応擬似グループコントラスト(GAPGC)を提案する。
GAPGCは、TTA中に自己教師型タスクとして、Adversarial Learnable Augmenter と Group Pseudo-Positive Samples を備えた対照的な学習変種を採用している。
我々は,GAPGCが情報理論の観点から主課題に必要な最小限の情報を引き出すことができるという理論的証拠を提供する。
論文 参考訳(メタデータ) (2022-08-19T02:24:16Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Ripple Walk Training: A Subgraph-based training framework for Large and
Deep Graph Neural Network [10.36962234388739]
本稿では,深部および大規模グラフニューラルネットワークのための一般的なサブグラフベーストレーニングフレームワークであるRipple Walk Training(RWT)を提案する。
RWTは、全グラフからサブグラフをサンプリングしてミニバッチを構成し、全GNNはミニバッチ勾配に基づいて更新される。
グラフの異なるサイズに関する大規模な実験は、様々なGNNを訓練する際のRWTの有効性と効率を実証している。
論文 参考訳(メタデータ) (2020-02-17T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。