論文の概要: Semantic-enhanced Co-attention Prompt Learning for Non-overlapping Cross-Domain Recommendation
- arxiv url: http://arxiv.org/abs/2505.19085v1
- Date: Sun, 25 May 2025 10:45:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.8909
- Title: Semantic-enhanced Co-attention Prompt Learning for Non-overlapping Cross-Domain Recommendation
- Title(参考訳): 重複しないクロスドメイン勧告のための意味強調型コアテンション・プロンプト学習
- Authors: Lei Guo, Chenlong Song, Feng Guo, Xiaohui Han, Xiaojun Chang, Lei Zhu,
- Abstract要約: 非重複クロスドメインシークエンシャルレコメンデーション(NCSR)は、重複エンティティを使わずにドメイン知識の伝達に焦点を当てるタスクである。
本稿では,MNCSR(Multi-to-one Non-overlapping Cross-domain Sequential Recommendation)の即時学習手法を提案する。
具体的には、IDではなくテキストで項目を表現し、自然言語を活用してドメイン間の知識伝達を促進することで意味的意味を捉える。
- 参考スコア(独自算出の注目度): 41.344637383515504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-overlapping Cross-domain Sequential Recommendation (NCSR) is the task that focuses on domain knowledge transfer without overlapping entities. Compared with traditional Cross-domain Sequential Recommendation (CSR), NCSR poses several challenges: 1) NCSR methods often rely on explicit item IDs, overlooking semantic information among entities. 2) Existing CSR mainly relies on domain alignment for knowledge transfer, risking semantic loss during alignment. 3) Most previous studies do not consider the many-to-one characteristic, which is challenging because of the utilization of multiple source domains. Given the above challenges, we introduce the prompt learning technique for Many-to-one Non-overlapping Cross-domain Sequential Recommendation (MNCSR) and propose a Text-enhanced Co-attention Prompt Learning Paradigm (TCPLP). Specifically, we capture semantic meanings by representing items through text rather than IDs, leveraging natural language universality to facilitate cross-domain knowledge transfer. Unlike prior works that need to conduct domain alignment, we directly learn transferable domain information, where two types of prompts, i.e., domain-shared and domain-specific prompts, are devised, with a co-attention-based network for prompt encoding. Then, we develop a two-stage learning strategy, i.e., pre-train & prompt-tuning paradigm, for domain knowledge pre-learning and transferring, respectively. We conduct extensive experiments on three datasets and the experimental results demonstrate the superiority of our TCPLP. Our source codes have been publicly released.
- Abstract(参考訳): 非重複クロスドメインシーケンスレコメンデーション(NCSR)は、重複エンティティを使わずにドメイン知識の伝達に焦点を当てるタスクである。
従来のクロスドメインシーケンスレコメンデーション(CSR)と比較すると、NCSRにはいくつかの課題がある。
1)NCSR法は,エンティティ間の意味情報を見渡すために,明示的な項目IDに依存することが多い。
2)既存のCSRは主に知識伝達のためのドメインアライメントに依存し,アライメント中の意味的損失のリスクを負う。
3) 従来の研究では、複数のソースドメインの利用が困難である多対一の特徴を考慮していない。
以上の課題から,MNCSR(Multi-to-one Non-overlapping Cross-domain Sequential Recommendation)の即時学習手法を導入し,TCPLP(Text-enhanced Co-attention Prompt Learning Paradigm)を提案する。
具体的には, 自然言語の普遍性を活かし, ドメイン間の知識伝達を促進することによって, 意味的意味を抽出する。
ドメインアライメントを行う必要がある以前の作業とは異なり、転送可能なドメイン情報、すなわちドメイン共有プロンプトとドメイン固有プロンプトという2つのタイプのプロンプトを、エンコーディングをプロンプトするためのコアテンションベースのネットワークで直接学習する。
そこで我々は,ドメイン知識の事前学習と移行のための2段階学習戦略,すなわち事前学習と即時学習のパラダイムを開発する。
3つのデータセットについて広範な実験を行い、実験結果からTCPLPの優位性を実証した。
ソースコードは公開されています。
関連論文リスト
- Federated Semantic Learning for Privacy-preserving Cross-domain Recommendation [14.38754843118305]
フェデレーション・セマンティック・ラーニングを導入し、FFMSRをソリューションとして考案する。
制限1では,複数層セマンティックエンコーダを用いて,元のテキストからアイテムのセマンティックエンコーダをローカルに学習する。
制限2では、クライアントにIDとテキストのモダリティを統合し、それらを利用してアイテムのさまざまな側面を学習します。
論文 参考訳(メタデータ) (2025-03-29T09:37:11Z) - DiPrompT: Disentangled Prompt Tuning for Multiple Latent Domain
Generalization in Federated Learning [20.51179258856028]
フェデレートラーニング(FL)は、分散データから学ぶための強力なパラダイムとして登場した。
既存のFLメソッドの多くは、トレーニング中にドメインラベルが提供されると仮定し、その評価はドメインの数に明確な制約を課している。
本稿では,ドメイン一般化のための適応的なプロンプトを分散的に学習することで,上記の制約に対処するDistangled Prompt Tuning(DiPrompT)を提案する。
論文 参考訳(メタデータ) (2024-03-11T15:58:15Z) - Role Prompting Guided Domain Adaptation with General Capability Preserve
for Large Language Models [55.51408151807268]
特定のドメインに合わせると、LLM(Large Language Models)は破滅的な忘れを経験する傾向がある。
同時に複数のドメインのための汎用モデルを構築することで、全体的なパフォーマンスが低下することが多い。
RolE Prompting Guided Multi-Domain Adaptation (REGA) 戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T08:22:41Z) - Context-aware Domain Adaptation for Time Series Anomaly Detection [69.3488037353497]
時系列異常検出は、幅広い現実世界の応用において難しい課題である。
近年,類似分野の知識を活用するため,時系列領域適応への取り組みが進められている。
本研究では,コンテキストサンプリングと異常検出を併用した共同学習手法を提案する。
論文 参考訳(メタデータ) (2023-04-15T02:28:58Z) - Time Interval-enhanced Graph Neural Network for Shared-account
Cross-domain Sequential Recommendation [44.34610028544989]
共有アカウント クロスドメイン シークエンシャルレコメンデーション(SCSR)タスクは、複数のドメインにおける混合ユーザ動作を活用することで、次の項目を推奨することを目的としている。
既存のSCSRの研究は主に、リカレントニューラルネットワーク(RNN)ベースのモデルによるシーケンシャルパターンのマイニングに依存している。
上記の課題に対処するために,新たなグラフベースのソリューションTiDA-GCNを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:06:01Z) - A cross-domain recommender system using deep coupled autoencoders [77.86290991564829]
クロスドメインレコメンデーションのために2つの新しい結合型オートエンコーダに基づくディープラーニング手法を提案する。
最初の方法は、ソースドメインとターゲットドメイン内のアイテムの固有表現を明らかにするために、一対のオートエンコーダを同時に学習することを目的としている。
第2の方法は,2つのオートエンコーダを用いてユーザとアイテム待ち行列を深く非線形に生成する,新たな共同正規化最適化問題に基づいて導出する。
論文 参考訳(メタデータ) (2021-12-08T15:14:26Z) - Exploiting Both Domain-specific and Invariant Knowledge via a Win-win
Transformer for Unsupervised Domain Adaptation [14.623272346517794]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
既存のUDAアプローチのほとんどは、ドメイン不変表現を学習し、2つのドメインにまたがる1つの分類器を共有することによって、知識伝達を可能にする。
我々はWin-Win TRansformerフレームワークを提案し、各ドメインのドメイン固有の知識を別々に探索し、ドメイン間の知識を交換する。
論文 参考訳(メタデータ) (2021-11-25T06:45:07Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Context-Aware Domain Adaptation in Semantic Segmentation [59.79348089240319]
セマンティックセグメンテーションにおける教師なしドメイン適応の問題を考える。
既存の手法は主に、敵対的学習を通じて、ドメイン不変の特徴(転送方法)を適応することに焦点を当てている。
本稿では,2つのドメイン間のコンテキスト依存性を捕捉し,転送可能なコンテキストに適応するための自己注意に基づく相互注意機構を提案する。
論文 参考訳(メタデータ) (2020-03-09T09:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。