論文の概要: Let It Go? Not Quite: Addressing Item Cold Start in Sequential Recommendations with Content-Based Initialization
- arxiv url: http://arxiv.org/abs/2507.19473v1
- Date: Fri, 25 Jul 2025 17:57:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:49.061636
- Title: Let It Go? Not Quite: Addressing Item Cold Start in Sequential Recommendations with Content-Based Initialization
- Title(参考訳): Let it go? Not Quite: Addressing Item Cold Start in Sequential Recommendations with Content-Based Initialization
- Authors: Anton Pembek, Artem Fatkulin, Anton Klenitskiy, Alexey Vasilev,
- Abstract要約: 凍結埋め込みに小さな訓練可能なデルタを導入し、モデルが元のセマンティック構造から遠ざかることなく、アイテム表現を適応できるようにする。
このアプローチは、複数のデータセットとモダリティにわたって一貫した改善を示す。
- 参考スコア(独自算出の注目度): 0.8437187555622164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many sequential recommender systems suffer from the cold start problem, where items with few or no interactions cannot be effectively used by the model due to the absence of a trained embedding. Content-based approaches, which leverage item metadata, are commonly used in such scenarios. One possible way is to use embeddings derived from content features such as textual descriptions as initialization for the model embeddings. However, directly using frozen content embeddings often results in suboptimal performance, as they may not fully adapt to the recommendation task. On the other hand, fine-tuning these embeddings can degrade performance for cold-start items, as item representations may drift far from their original structure after training. We propose a novel approach to address this limitation. Instead of entirely freezing the content embeddings or fine-tuning them extensively, we introduce a small trainable delta to frozen embeddings that enables the model to adapt item representations without letting them go too far from their original semantic structure. This approach demonstrates consistent improvements across multiple datasets and modalities, including e-commerce datasets with textual descriptions and a music dataset with audio-based representation.
- Abstract(参考訳): 多くのシーケンシャルなレコメンデータシステムはコールドスタートの問題に悩まされており、トレーニング済みの埋め込みがないため、インタラクションがほとんど、あるいは全くないアイテムは、モデルによって効果的に使用できない。
アイテムメタデータを利用するコンテンツベースのアプローチは、そのようなシナリオで一般的に使用される。
可能な方法の1つは、テキスト記述などのコンテンツ機能から派生した埋め込みを、モデル埋め込みの初期化として使用することである。
しかし、凍結したコンテンツ埋め込みを直接使用すると、推奨タスクに完全に適応しないため、しばしば準最適パフォーマンスをもたらす。
一方、これらの埋め込みの微調整は、トレーニング後に元の構造から遠ざかる可能性があるため、コールドスタートアイテムのパフォーマンスを低下させる可能性がある。
我々はこの制限に対処するための新しいアプローチを提案する。
コンテンツ埋め込みを完全に凍結したり、広範囲に微調整する代わりに、モデルを元のセマンティック構造から遠ざけることなく、アイテム表現を適応できるように、小さなトレーニング可能なデルタを凍結埋め込みに導入する。
このアプローチでは、テキスト記述を備えたeコマースデータセットや、オーディオベースの表現を備えた音楽データセットなど、複数のデータセットとモダリティの一貫性のある改善が示されている。
関連論文リスト
- Language-Model Prior Overcomes Cold-Start Items [14.370472820496802]
RecSysの成長は、デジタル化と、eコマースやビデオストリーミングなどの分野におけるパーソナライズされたコンテンツの必要性による。
コンテンツベースのレコメンデータやハイブリッドメソッドといったコールドスタート問題の既存のソリューションは、アイテムメタデータを活用してアイテムの類似性を決定する。
本稿では,言語モデル(LM)を用いて項目類似度を推定する,コールドスタートアイテムレコメンデーションのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-13T22:45:52Z) - Firzen: Firing Strict Cold-Start Items with Frozen Heterogeneous and Homogeneous Graphs for Recommendation [34.414081170244955]
厳密なコールドスタートとウォームスタートのレコメンデーションを解決するために,項目と知識グラフのマルチモーダルコンテンツ(KG)を統合した統合フレームワークを提案する。
我々のモデルでは,厳密なコールドスタート勧告と,ウォームスタートシナリオにおける最先端性能に適合する性能の向上が期待できる。
論文 参考訳(メタデータ) (2024-10-10T06:48:27Z) - Learning Multi-Aspect Item Palette: A Semantic Tokenization Framework for Generative Recommendation [55.99632509895994]
マルチアスペクトセマンティックトークン化のための新しいアプローチであるLAMIAを紹介する。
単一の埋め込みを使用するRQ-VAEとは異なり、LAMIAは独立的でセマンティックな並列な埋め込みの集合である「アイテムパレット」を学習する。
その結果,提案手法よりも提案手法の精度が大幅に向上した。
論文 参考訳(メタデータ) (2024-09-11T13:49:48Z) - Text Matching Improves Sequential Recommendation by Reducing Popularity
Biases [48.272381505993366]
TASTEは、アイテムの識別子と属性を使用して、アイテムとユーザとイテムのインタラクションを言語化する。
実験の結果,TASTEはシーケンシャルレコメンデーションデータセットにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-27T07:44:33Z) - Multi-task Item-attribute Graph Pre-training for Strict Cold-start Item
Recommendation [71.5871100348448]
ColdGPTは、アイテム内容からきめ細かい属性を抽出することにより、アイテム属性相関をアイテム属性グラフにモデル化する。
ColdGPTは、さまざまな利用可能なデータソース、すなわちアイテムの内容、過去の購入シーケンス、既存のアイテムのレビューテキストから、知識をアイテム属性グラフに転送する。
大規模な実験により、ColdGPTは既存のSCSレコメンデーターを大きなマージンで一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-06-26T07:04:47Z) - FELRec: Efficient Handling of Item Cold-Start With Dynamic Representation Learning in Recommender Systems [0.0]
本稿では、ユーザとアイテムの既存の表現を洗練する大規模な埋め込みネットワークであるFELRecを紹介する。
類似のアプローチとは対照的に、我々のモデルはサイド情報や時間を要する微調整を伴わない新しいユーザやアイテムを表現している。
提案したモデルは、ゼロショット設定でこれまで見られなかったデータセットをうまく一般化する。
論文 参考訳(メタデータ) (2022-10-30T19:08:38Z) - Prompt-Matched Semantic Segmentation [96.99924127527002]
本研究の目的は、事前学習した基礎モデルを、画像意味セグメンテーションの下流の様々なタスクに効果的に適応する方法を検討することである。
本稿では,タスク指向のチューニングに適応的に視覚的プロンプトを生成するとともに,基礎モデルの本来の構造を維持できる新しい階層間プロンプトマッチングフレームワークを提案する。
次に、Semantic-aware Prompt Matcherと呼ばれる軽量モジュールを導入し、2つのステージ間で階層的に補間し、各タスクに対して適切なプロンプトを学習する。
論文 参考訳(メタデータ) (2022-08-22T09:12:53Z) - Efficient Few-Shot Fine-Tuning for Opinion Summarization [83.76460801568092]
抽象的な要約モデルは、典型的には大量のジェネリックテキストで事前訓練され、数万から数十万の注釈付きサンプルで微調整される。
アダプタをベースとした数ショット法では,ドメイン内の知識を容易に保存できることを示す。
この自己教師型アダプタの事前トレーニングにより,AmazonとYelpのデータセット上の2.0および1.3ROUGE-Lポイントの要約品質が向上することを示す。
論文 参考訳(メタデータ) (2022-05-04T16:38:37Z) - Sequential Recommendation via Stochastic Self-Attention [68.52192964559829]
Transformerベースのアプローチでは、アイテムをベクトルとして埋め込んで、ドット積の自己アテンションを使用してアイテム間の関係を測定する。
本稿では,これらの問題を克服するための新しいtextbfStochastic textbfSelf-textbfAttention (STOSA) を提案する。
我々は、アイテムと項目の位置関係を列で特徴づける新しいワッサースタイン自己保持モジュールを考案した。
論文 参考訳(メタデータ) (2022-01-16T12:38:45Z) - Privileged Graph Distillation for Cold Start Recommendation [57.918041397089254]
レコメンデーションシステムにおけるコールドスタートの問題は、歴史的相互作用の記録のない属性に基づいて新しいユーザー(イテム)に推奨することである。
特権グラフ蒸留モデル(PGD)を提案する。
提案手法は,新規ユーザ,新規ユーザ,新規ユーザを対象とする異なるコールドスタートシナリオに適用可能である。
論文 参考訳(メタデータ) (2021-05-31T14:05:27Z) - Cold-start Sequential Recommendation via Meta Learner [10.491428090228768]
本研究では,逐次推薦における項目コールドスタート問題を軽減するために,メタラーニングに基づくコールドスタートシーケンシャルレコメンデーションフレームワーク,mecosを提案する。
mecosは限られたインタラクションからユーザの好みを効果的に抽出し、ターゲットのコールドスタートアイテムと潜在的なユーザとのマッチングを学ぶ。
論文 参考訳(メタデータ) (2020-12-10T05:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。