論文の概要: Efficient Variational Graph Autoencoders for Unsupervised Cross-domain
Prerequisite Chains
- arxiv url: http://arxiv.org/abs/2109.08722v1
- Date: Fri, 17 Sep 2021 19:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 02:27:24.167626
- Title: Efficient Variational Graph Autoencoders for Unsupervised Cross-domain
Prerequisite Chains
- Title(参考訳): 教師なしクロスドメイン必須チェーンのための効率的な変分グラフオートエンコーダ
- Authors: Irene Li, Vanessa Yan and Dragomir Radev
- Abstract要約: 本稿では,このドメイン間前提連鎖学習タスクを効率的に解くために,DAVGAE(Domain-versaational Variational Graph Autoencoders)を導入する。
我々の新しいモデルは変分グラフオートエンコーダ(VGAE)とドメイン識別器から構成される。
その結果,本モデルは1/10グラフスケールと1/3時間のみを用いて,最近のグラフベースの計算より優れていることがわかった。
- 参考スコア(独自算出の注目度): 3.358838755118655
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Prerequisite chain learning helps people acquire new knowledge efficiently.
While people may quickly determine learning paths over concepts in a domain,
finding such paths in other domains can be challenging. We introduce
Domain-Adversarial Variational Graph Autoencoders (DAVGAE) to solve this
cross-domain prerequisite chain learning task efficiently. Our novel model
consists of a variational graph autoencoder (VGAE) and a domain discriminator.
The VGAE is trained to predict concept relations through link prediction, while
the domain discriminator takes both source and target domain data as input and
is trained to predict domain labels. Most importantly, this method only needs
simple homogeneous graphs as input, compared with the current state-of-the-art
model. We evaluate our model on the LectureBankCD dataset, and results show
that our model outperforms recent graph-based benchmarks while using only 1/10
of graph scale and 1/3 computation time.
- Abstract(参考訳): 前提連鎖学習は、人々が新しい知識を効率的に獲得するのに役立つ。
ドメイン内の概念を学習するパスを素早く決定することができるが、他のドメインでそのようなパスを見つけるのは困難である。
本稿では,DAVGAE (Domain-Adversarial Variational Graph Autoencoders) を導入し,ドメイン間連鎖学習を効率的に行う。
我々の新しいモデルは変分グラフオートエンコーダ(VGAE)とドメイン識別器からなる。
vgaeはリンク予測を通じて概念関係を予測するように訓練され、ドメイン判別器はソースとターゲットの両方のドメインデータを入力として取り、ドメインラベルを予測するように訓練される。
最も重要なことに、この手法は入力として単純な同質グラフのみを必要とする。
本モデルは, lecturebankcdデータセット上で評価し, グラフスケールの1/10と1/3の計算時間を用いて, 最近のグラフベースベンチマークを上回った。
関連論文リスト
- Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
グラフにおけるクロスタスクの一般性を学習するための新しいアプローチを提案する。
グラフ上のタスク空間を整列させるための基本的な学習インスタンスとしてタスクツリーを提案する。
その結果,グラフニューラルネットワークが多種多様なタスクツリーで事前訓練された場合,伝達可能な知識を取得することが示唆された。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - One Model for One Graph: A New Perspective for Pretraining with Cross-domain Graphs [61.9759512646523]
複雑なネットワークパターンをキャプチャする強力なツールとして、グラフニューラルネットワーク(GNN)が登場した。
既存のGNNには、慎重にドメイン固有のアーキテクチャ設計と、データセットのスクラッチからのトレーニングが必要です。
我々は、新しいクロスドメイン事前学習フレームワーク「1つのグラフのための1つのモデル」を提案する。
論文 参考訳(メタデータ) (2024-11-30T01:49:45Z) - Cross-domain Named Entity Recognition via Graph Matching [25.237288970802425]
クロスドメインのNERは、現実のシナリオにおけるデータの不足から、実用的ながら難しい問題である。
我々は,ラベル関係を確率分布としてモデル化し,ソースとターゲットの両方のラベル空間にラベルグラフを構築する。
ラベル関係をグラフとして表現することにより、グラフマッチング問題としてクロスドメインNERを定式化する。
論文 参考訳(メタデータ) (2024-08-02T02:31:54Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Source Free Unsupervised Graph Domain Adaptation [60.901775859601685]
Unsupervised Graph Domain Adaptation (UGDA) はノード分類のラベル付けコストを削減するための実用的価値を示している。
既存のUGDAメソッドの多くは、ソースドメインのラベル付きグラフに大きく依存している。
現実のシナリオでは、ソースグラフはプライバシーの問題のためにアクセスできない。
我々は、Source Free Unsupervised Graph Domain Adaptation (SFUGDA) という新しいシナリオを提案する。
論文 参考訳(メタデータ) (2021-12-02T03:18:18Z) - Unsupervised Cross-Domain Prerequisite Chain Learning using Variational
Graph Autoencoders [2.735701323590668]
最適化された変動グラフオートエンコーダを用いて,教師なしのクロスドメイン概念前提チェーン学習を提案する。
私たちのモデルは、情報豊富なドメインから情報貧弱ドメインに概念前提条件関係を転送することを学びます。
また、CVとバイオインフォマティクスという2つの新しいドメインを導入することで、既存のデータセットを拡張します。
論文 参考訳(メタデータ) (2021-05-07T21:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。