論文の概要: Pre-training Graph Neural Network for Cross Domain Recommendation
- arxiv url: http://arxiv.org/abs/2111.08268v1
- Date: Tue, 16 Nov 2021 07:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 01:39:51.735592
- Title: Pre-training Graph Neural Network for Cross Domain Recommendation
- Title(参考訳): クロスドメイン勧告のための事前学習型グラフニューラルネットワーク
- Authors: Chen Wang, Yueqing Liang, Zhiwei Liu, Tao Zhang, Philip S. Yu
- Abstract要約: 推薦システムは、ユーザ/イテムの埋め込みを学習する中心となるアイテムに対するユーザの潜在的関心を予測する。
グラフ表現学習から事前学習を行う現代美術に着想を得て,クロスドメインレコメンデーションのための事前学習および微調整図を提案する。
我々は,グラフエンコーダの自己教師型事前学習を採用するPCRec (Pre-training Graph Neural Network for Cross-Domain Recommendation) を考案した。
- 参考スコア(独自算出の注目度): 58.057687253631826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A recommender system predicts users' potential interests in items, where the
core is to learn user/item embeddings. Nevertheless, it suffers from the
data-sparsity issue, which the cross-domain recommendation can alleviate.
However, most prior works either jointly learn the source domain and target
domain models, or require side-features. However, jointly training and side
features would affect the prediction on the target domain as the learned
embedding is dominated by the source domain containing bias information.
Inspired by the contemporary arts in pre-training from graph representation
learning, we propose a pre-training and fine-tuning diagram for cross-domain
recommendation. We devise a novel Pre-training Graph Neural Network for
Cross-Domain Recommendation (PCRec), which adopts the contrastive
self-supervised pre-training of a graph encoder. Then, we transfer the
pre-trained graph encoder to initialize the node embeddings on the target
domain, which benefits the fine-tuning of the single domain recommender system
on the target domain. The experimental results demonstrate the superiority of
PCRec. Detailed analyses verify the superiority of PCRec in transferring
information while avoiding biases from source domains.
- Abstract(参考訳): 推薦システムは,ユーザ/イテムの埋め込み学習のコアとなる項目に対するユーザの潜在的関心を予測する。
それでも、クロスドメインレコメンデーションが緩和できるデータスパーシティの問題に悩まされている。
しかし、ほとんどの先行作業は、ソースドメインとターゲットドメインモデルを共同学習するか、またはサイド機能を必要とする。
しかし、学習された埋め込みがバイアス情報を含むソースドメインに支配されるため、共同トレーニングと側面の特徴が対象ドメインの予測に影響を及ぼす。
グラフ表現学習から事前学習を行う現代美術に着想を得て,クロスドメインレコメンデーションのための事前学習および微調整図を提案する。
我々は,グラフエンコーダの自己教師型事前学習を採用するPCRec (Pre-training Graph Neural Network for Cross-Domain Recommendation) を考案した。
次に、事前学習したグラフエンコーダを転送して、ターゲットドメイン上のノード埋め込みを初期化し、ターゲットドメイン上の単一ドメインレコメンデータシステムの微調整に役立てる。
その結果,PCRecの優位性が示された。
詳細な分析は、ソースドメインからのバイアスを避けながら情報転送におけるPCRecの優位性を検証する。
関連論文リスト
- Adapting to Distribution Shift by Visual Domain Prompt Generation [34.19066857066073]
いくつかのラベルのないデータを使って、テスト時にモデルを適応し、分散シフトに対処する。
ソースドメインから移行可能な知識を学ぶための知識銀行を構築します。
提案手法は,WILDSやDomainNetを含む5つの大規模ベンチマークにおいて,従来よりも優れている。
論文 参考訳(メタデータ) (2024-05-05T02:44:04Z) - Towards Generalised Pre-Training of Graph Models [0.0]
本稿では,ノードとエッジの特徴排除に基づくグラフ事前学習手法である,事前学習のためのトポロジーを提案する。
モデルは、事前トレーニングデータに存在しないドメインを含む複数のドメインから評価データセットをポジティブに転送する。
論文 参考訳(メタデータ) (2023-11-07T13:24:01Z) - Connect, Not Collapse: Explaining Contrastive Learning for Unsupervised
Domain Adaptation [88.5448806952394]
我々は、対象ドメインのラベル付きデータと対象ドメインのラベルなしデータを用いて、対象ドメインの分類器を学習する、教師なしドメイン適応(UDA)を考える。
ラベル付きソースとターゲットデータの特徴を学習し,ラベル付きソースデータに微調整を行うコントラスト事前学習は,強いUDA手法と競合することを示す。
論文 参考訳(メタデータ) (2022-04-01T16:56:26Z) - A Broad Study of Pre-training for Domain Generalization and Adaptation [69.38359595534807]
ドメイン適応と一般化のための事前学習の幅広い研究と詳細な分析を行う。
我々は、単に最先端のバックボーンを使用することで、既存の最先端のドメイン適応ベースラインより優れていることを観察する。
論文 参考訳(メタデータ) (2022-03-22T15:38:36Z) - Ranking Distance Calibration for Cross-Domain Few-Shot Learning [91.22458739205766]
数ショット学習の最近の進歩は、より現実的なクロスドメイン設定を促進する。
ドメインギャップとソースとターゲットデータセット間のラベル空間の相違により、共有される知識は極めて限られている。
我々は,タスク内の相互k-アネレスト近傍を発見することで,目標距離行列の校正を行う。
論文 参考訳(メタデータ) (2021-12-01T03:36:58Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Efficient Variational Graph Autoencoders for Unsupervised Cross-domain
Prerequisite Chains [3.358838755118655]
本稿では,このドメイン間前提連鎖学習タスクを効率的に解くために,DAVGAE(Domain-versaational Variational Graph Autoencoders)を導入する。
我々の新しいモデルは変分グラフオートエンコーダ(VGAE)とドメイン識別器から構成される。
その結果,本モデルは1/10グラフスケールと1/3時間のみを用いて,最近のグラフベースの計算より優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-17T19:07:27Z) - Unsupervised Cross-Domain Prerequisite Chain Learning using Variational
Graph Autoencoders [2.735701323590668]
最適化された変動グラフオートエンコーダを用いて,教師なしのクロスドメイン概念前提チェーン学習を提案する。
私たちのモデルは、情報豊富なドメインから情報貧弱ドメインに概念前提条件関係を転送することを学びます。
また、CVとバイオインフォマティクスという2つの新しいドメインを導入することで、既存のデータセットを拡張します。
論文 参考訳(メタデータ) (2021-05-07T21:02:41Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z) - Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation [13.163271874039191]
本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
本稿では,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
論文 参考訳(メタデータ) (2020-02-03T06:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。