論文の概要: LLM-Empowered Representation Learning for Emerging Item Recommendation
- arxiv url: http://arxiv.org/abs/2512.10370v1
- Date: Thu, 11 Dec 2025 07:36:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.248493
- Title: LLM-Empowered Representation Learning for Emerging Item Recommendation
- Title(参考訳): 新興項目推薦のためのLLMを利用した表現学習
- Authors: Ziying Zhang, Quanming Yao, Yaqing Wang,
- Abstract要約: EmerFlowは新しい表現学習フレームワークで、新興アイテムに固有の埋め込みを生成する。
まず、LLM推論を通じて、新しいアイテムの生の特徴を豊かにし、次にこれらの表現を既存のレコメンデーションモデルの埋め込み空間と整合させる。
埋め込みを洗練させるために、メタラーニングによって新しい相互作用が組み込まれている。
映画や薬品などさまざまな分野の実験は、EmerFlowが既存の手法を一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 35.28434142749689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we tackle the challenge of recommending emerging items, whose interactions gradually accumulate over time. Existing methods often overlook this dynamic process, typically assuming that emerging items have few or even no historical interactions. Such an assumption oversimplifies the problem, as a good model must preserve the uniqueness of emerging items while leveraging their shared patterns with established ones. To address this challenge, we propose EmerFlow, a novel LLM-empowered representation learning framework that generates distinctive embeddings for emerging items. It first enriches the raw features of emerging items through LLM reasoning, then aligns these representations with the embedding space of the existing recommendation model. Finally, new interactions are incorporated through meta-learning to refine the embeddings. This enables EmerFlow to learn expressive embeddings for emerging items from only limited interactions. Extensive experiments across diverse domains, including movies and pharmaceuticals, show that EmerFlow consistently outperforms existing methods.
- Abstract(参考訳): 本研究では,時間とともに相互作用が徐々に蓄積する新しい項目を推薦する課題に取り組む。
既存の方法はしばしばこのダイナミックなプロセスを見落とし、一般的には、出現するアイテムが歴史的相互作用をほとんど、あるいは全く持たないと仮定する。
このような仮定は問題を過度に単純化するので、優れたモデルでは、確立したパターンと共有するパターンを活用しながら、出現するアイテムのユニークさを保たなければならない。
この課題に対処するために,新しいLLMを用いた表現学習フレームワークであるEmerFlowを提案する。
まず、LLM推論を通じて、新しいアイテムの生の特徴を豊かにし、次にこれらの表現を既存のレコメンデーションモデルの埋め込み空間と整合させる。
最後に、埋め込みを洗練させるために、メタラーニングによって新しいインタラクションが組み込まれます。
これによりEmerFlowは、限られたインタラクションのみから、新興アイテムの表現力のある埋め込みを学ぶことができる。
映画や薬品など、さまざまな分野にわたる大規模な実験は、EmerFlowが既存の手法を一貫して上回っていることを示している。
関連論文リスト
- Bridging Collaborative Filtering and Large Language Models with Dynamic Alignment, Multimodal Fusion and Evidence-grounded Explanations [1.3702600718499687]
軽量モジュールによる新しいユーザインタラクションを組み込んだオンライン適応機構を開発した。
我々は、協調的な信号と視覚的および音声的特徴をシームレスに結合する統一表現を作成します。
提案手法では,凍結ベースモデルの効率性を維持しつつ,計算オーバーヘッドを最小限に抑え,実世界の展開に有効である。
論文 参考訳(メタデータ) (2025-10-02T02:43:24Z) - Enhancing Item Tokenization for Generative Recommendation through Self-Improvement [67.94240423434944]
生成レコメンデーションシステムは大規模言語モデル(LLM)によって駆動される
現在のアイテムトークン化手法には、テキスト記述、数値文字列、離散トークンのシーケンスの使用が含まれる。
自己改善アイテムトークン化手法を提案し,LLMがトレーニングプロセス中に独自のアイテムトークン化を洗練できるようにする。
論文 参考訳(メタデータ) (2024-12-22T21:56:15Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Latent Structures Mining with Contrastive Modality Fusion for Multimedia
Recommendation [22.701371886522494]
マルチモーダルコンテンツに基づく潜在意味的項目-項目構造は,より優れた項目表現を学習する上で有益である,と我々は主張する。
モータリティを意識した構造学習モジュールを考案し,各モータリティの項目間関係を学習する。
論文 参考訳(メタデータ) (2021-11-01T03:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。