論文の概要: Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2406.03085v1
- Date: Wed, 5 Jun 2024 09:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 19:09:43.002559
- Title: Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation
- Title(参考訳): クロスドメインシーケンスレコメンデーションのための大規模言語モデルへのユーザ検索統合の探索
- Authors: Tingjia Shen, Hao Wang, Jiaqing Zhang, Sirui Zhao, Liangyue Li, Zulong Chen, Defu Lian, Enhong Chen,
- Abstract要約: Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 66.72195610471624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-Domain Sequential Recommendation (CDSR) aims to mine and transfer users' sequential preferences across different domains to alleviate the long-standing cold-start issue. Traditional CDSR models capture collaborative information through user and item modeling while overlooking valuable semantic information. Recently, Large Language Model (LLM) has demonstrated powerful semantic reasoning capabilities, motivating us to introduce them to better capture semantic information. However, introducing LLMs to CDSR is non-trivial due to two crucial issues: seamless information integration and domain-specific generation. To this end, we propose a novel framework named URLLM, which aims to improve the CDSR performance by exploring the User Retrieval approach and domain grounding on LLM simultaneously. Specifically, we first present a novel dual-graph sequential model to capture the diverse information, along with an alignment and contrastive learning method to facilitate domain knowledge transfer. Subsequently, a user retrieve-generation model is adopted to seamlessly integrate the structural information into LLM, fully harnessing its emergent inferencing ability. Furthermore, we propose a domain-specific strategy and a refinement module to prevent out-of-domain generation. Extensive experiments on Amazon demonstrated the information integration and domain-specific generation ability of URLLM in comparison to state-of-the-art baselines. Our code is available at https://github.com/TingJShen/URLLM
- Abstract(参考訳): Cross-Domain Sequential Recommendation (CDSR)は、長期にわたるコールドスタート問題を緩和するために、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
伝統的なCDSRモデルは、価値ある意味情報を見下ろしながら、ユーザとアイテムのモデリングを通して協調情報をキャプチャする。
近年,Large Language Model (LLM) は強力なセマンティック推論機能を示しており,セマンティックな情報をよりよく捉えるためにそれらを導入する動機となっている。
しかし、LCMをCDSRに導入するのは、シームレスな情報統合とドメイン固有の生成という2つの重要な問題のため、簡単ではない。
そこで本研究では,ユーザ検索アプローチとLLMに基づくドメイン基盤を同時に探索することにより,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
具体的には、まず、多彩な情報を捉えるための新しいデュアルグラフシーケンシャルモデルと、ドメイン知識の伝達を容易にするアライメントとコントラスト学習手法を提案する。
その後、ユーザ検索生成モデルを採用し、構造情報をLLMにシームレスに統合し、その創発的推論能力を完全に活用する。
さらに,ドメイン外生成を防止するために,ドメイン固有の戦略と改良モジュールを提案する。
Amazonでの大規模な実験は、最先端のベースラインと比較して、URLLMの情報統合とドメイン固有の生成能力を実証した。
私たちのコードはhttps://github.com/TingJShen/URLLMで利用可能です。
関連論文リスト
- Improving Few-Shot Cross-Domain Named Entity Recognition by Instruction Tuning a Word-Embedding based Retrieval Augmented Large Language Model [0.0]
Few-Shot Cross-Domain NERは、データ豊富なソースドメインからの知識を活用して、データ不足のターゲットドメイン上でエンティティ認識を実行するプロセスである。
名前付きエンティティ認識のための検索拡張大言語モデルIF-WRANERを提案する。
論文 参考訳(メタデータ) (2024-11-01T08:57:29Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Corpus Synthesis for Zero-shot ASR domain Adaptation using Large
Language Models [19.726699481313194]
そこで本稿では,新たなターゲットドメインにASRモデルを適用するための新たな戦略を提案する。
SLURPデータセットを用いた実験により,提案手法は未知のターゲットドメインに対して平均相対単語誤り率を28%向上させることができた。
論文 参考訳(メタデータ) (2023-09-18T15:43:08Z) - RestNet: Boosting Cross-Domain Few-Shot Segmentation with Residual
Transformation Network [4.232614032390374]
クロスドメイン小ショットセグメンテーション(CD-FSS)は、注釈付きサンプルの数が限られている未確認領域における意味セグメンテーションを実現することを目的としている。
ドメイン内サポートクエリの特徴情報を保持しながら知識伝達を容易にする新しい残差変換ネットワーク(RestNet)を提案する。
論文 参考訳(メタデータ) (2023-08-25T16:13:22Z) - Exploiting Graph Structured Cross-Domain Representation for Multi-Domain
Recommendation [71.45854187886088]
マルチドメインレコメンデータシステムは、クロスドメイン表現学習とポジティブな知識伝達の恩恵を受ける。
我々はMAGRecと呼ばれる手法のコンテキスト情報として時間的ドメイン内相互作用とドメイン間相互作用を用いる。
我々は、MAGRecが最先端の手法を一貫して上回る様々なシナリオで、公開データセットで実験を行う。
論文 参考訳(メタデータ) (2023-02-12T19:51:32Z) - Multi-Modal Cross-Domain Alignment Network for Video Moment Retrieval [55.122020263319634]
ビデオモーメント検索(VMR)は、与えられた言語クエリに従って、未編集のビデオからターゲットモーメントをローカライズすることを目的としている。
本稿では、新しいタスクであるクロスドメインVMRに焦点を当て、完全なアノテーション付きデータセットをひとつのドメインで利用できるが、関心のあるドメインは、注釈なしのデータセットのみを含む。
本稿では、アノテーションの知識をソースドメインからターゲットドメインに転送するマルチモーダル・クロスドメインアライメント・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-23T12:58:20Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。