論文の概要: Separated Contrastive Learning for Matching in Cross-domain Recommendation with Curriculum Scheduling
- arxiv url: http://arxiv.org/abs/2502.16239v1
- Date: Sat, 22 Feb 2025 14:22:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:02.683988
- Title: Separated Contrastive Learning for Matching in Cross-domain Recommendation with Curriculum Scheduling
- Title(参考訳): クロスドメインレコメンデーションにおける相互比較学習とカリキュラムスケジューリング
- Authors: Heng Chang, Liang Gu, Cheng Hu, Zhinan Zhang, Hong Zhu, Yuhui Xu, Yuan Fang, Zhen Chen,
- Abstract要約: クロスドメインレコメンデーション(CDR)は、ソースドメインの情報を活用することで、ターゲットドメインのレコメンデーションパフォーマンスを改善することを目的としたタスクである。
本稿では,CL内とCL間を分離したパラダイムと,その欠点に対処する停止段階演算を基盤として,SCCDRという新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.286608323134267
- License:
- Abstract: Cross-domain recommendation (CDR) is a task that aims to improve the recommendation performance in a target domain by leveraging the information from source domains. Contrastive learning methods have been widely adopted among intra-domain (intra-CL) and inter-domain (inter-CL) users/items for their representation learning and knowledge transfer during the matching stage of CDR. However, we observe that directly employing contrastive learning on mixed-up intra-CL and inter-CL tasks ignores the difficulty of learning from inter-domain over learning from intra-domain, and thus could cause severe training instability. Therefore, this instability deteriorates the representation learning process and hurts the quality of generated embeddings. To this end, we propose a novel framework named SCCDR built up on a separated intra-CL and inter-CL paradigm and a stop-gradient operation to handle the drawback. Specifically, SCCDR comprises two specialized curriculum stages: intra-inter separation and inter-domain curriculum scheduling. The former stage explicitly uses two distinct contrastive views for the intra-CL task in the source and target domains, respectively. Meanwhile, the latter stage deliberately tackles the inter-CL tasks with a curriculum scheduling strategy that derives effective curricula by accounting for the difficulty of negative samples anchored by overlapping users. Empirical experiments on various open-source datasets and an offline proprietary industrial dataset extracted from a real-world recommender system, and an online A/B test verify that SCCDR achieves state-of-the-art performance over multiple baselines.
- Abstract(参考訳): クロスドメインレコメンデーション(CDR)は、ソースドメインの情報を活用することで、ターゲットドメインのレコメンデーションパフォーマンスを改善することを目的としたタスクである。
ドメイン内(intra-CL)とドメイン間(inter-CL)では,CDRのマッチング段階における表現学習と知識伝達のために,コントラスト学習法が広く採用されている。
しかし、CL内タスクとCL間タスクの混在にコントラスト学習を直接活用することは、ドメイン内学習よりもドメイン間学習の難しさを無視するので、厳しいトレーニング不安定を引き起こす可能性がある。
したがって、この不安定さは表現学習過程を悪化させ、生成した埋め込みの品質を損なう。
そこで本研究では,CL内とCL間を分離して構築したSCCDRという新しいフレームワークと,その欠点に対処する停止段階演算を提案する。
具体的には、SCCDRは、インターインターセプションとドメイン間カリキュラムスケジューリングの2つの特別なカリキュラムステージで構成されている。
前段では、ソースドメインとターゲットドメインのCL内タスクに対して、それぞれ2つの異なるコントラストビューを明示的に使用しています。
一方、後者では、重複するユーザによってアンカーされる負のサンプルの難しさを考慮し、効果的なカリキュラムを導出するカリキュラムスケジューリング戦略により、CL間タスクに意図的に取り組む。
さまざまなオープンソースデータセットと、実世界のレコメンデーションシステムから抽出されたオフラインプロプライエタリな産業データセットに関する実証実験と、オンラインA/Bテストにより、SCCDRが複数のベースライン上で最先端のパフォーマンスを達成することを確認した。
関連論文リスト
- Joint semi-supervised and contrastive learning enables domain generalization and multi-domain segmentation [1.5393913074555419]
SegCLRは、さまざまなドメインにまたがるイメージのセグメンテーション用に設計された汎用的なフレームワークです。
SegCLRは、ラベル付きデータとラベルなしデータの両方から効果的に学習するために、教師付き学習とコントラスト付き学習を同時に使用する。
3つの多様な臨床データセットを包括的に評価することで、SegCLRの優れた性能を実証する。
論文 参考訳(メタデータ) (2024-05-08T18:10:59Z) - Towards Cross-Domain Continual Learning [8.22291258264193]
CDCL(Cross-Domain Continual Learning)と呼ばれる新しいアプローチを導入する。
提案手法は,コンパクトな畳み込みネットワーク内でのタスク間およびタスク内クロスアテンション機構を組み合わせたものである。
タスク内固有の擬似ラベル付け手法を利用して,ラベル付きサンプルとラベルなしサンプルの両方に対して正確な入力ペアを確保する。
論文 参考訳(メタデータ) (2024-02-19T19:54:03Z) - Topic-driven Distant Supervision Framework for Macro-level Discourse
Parsing [72.14449502499535]
テキストの内部修辞構造を解析する作業は、自然言語処理において難しい問題である。
近年のニューラルモデルの発展にもかかわらず、トレーニングのための大規模で高品質なコーパスの欠如は大きな障害となっている。
近年の研究では、遠方の監督を用いてこの制限を克服しようと試みている。
論文 参考訳(メタデータ) (2023-05-23T07:13:51Z) - Multi-level Consistency Learning for Semi-supervised Domain Adaptation [85.90600060675632]
半教師付きドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識をわずかにラベル付けされたターゲットドメインに適用することを目的としている。
SSDAのための多レベル一貫性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-09T06:41:18Z) - Transferrable Contrastive Learning for Visual Domain Adaptation [108.98041306507372]
Transferrable Contrastive Learning (TCL) はドメイン適応に適した自己教師型学習パラダイムである。
TCLは、クリーンで斬新な対照的な損失を通じて、ソースとターゲット間のドメイン内ドメイン間の相違を罰する。
無料のランチは、対照的な学習が組み込まれているため、TCLは、ターゲットデータのための擬似ラベルの時間的にアンサンブルされたバージョンを自然に達成する、移動平均キーエンコーダに依存している。
論文 参考訳(メタデータ) (2021-12-14T16:23:01Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Semi-supervised Domain Adaptation for Semantic Segmentation [3.946367634483361]
セマンティックセグメンテーションにおけるクロスドメインとイントラドメインのギャップに対処する2段階の半教師付き二重ドメイン適応(SSDDA)手法を提案する。
提案手法は,2つの共通合成-実合成セマンティックセグメンテーションベンチマークにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-20T16:13:00Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Learning Task-oriented Disentangled Representations for Unsupervised
Domain Adaptation [165.61511788237485]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインとラベルなしターゲットドメインの間のドメインシフト問題に対処することを目的としている。
UDAのための動的タスク指向の非絡合ネットワーク(DTDN)を提案し,非絡合表現をエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2020-07-27T01:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。