論文の概要: Avoid Recommending Out-of-Domain Items: Constrained Generative Recommendation with LLMs
- arxiv url: http://arxiv.org/abs/2505.03336v1
- Date: Tue, 06 May 2025 09:08:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.29638
- Title: Avoid Recommending Out-of-Domain Items: Constrained Generative Recommendation with LLMs
- Title(参考訳): 外部項目の推奨を避ける: LLMによる制約付き生成レコメンデーション
- Authors: Hao Liao, Wensheng Lu, Jianxun Lian, Mingqi Wu, Shuo Wang, Yong Zhang, Yitian Huang, Mingyang Zhou, Xing Xie,
- Abstract要約: LLM(Large Language Models)は、ジェネレーティブなレコメンデーションシステムである。
ドメイン外(OOD)項目を推奨しないことを保証することは、依然として課題です。
本稿では,検索手法であるRecLM-retと制約付き生成手法であるRecLM-cgenの2つの異なる手法について検討する。
- 参考スコア(独自算出の注目度): 33.73727268669685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown promise for generative recommender systems due to their transformative capabilities in user interaction. However, ensuring they do not recommend out-of-domain (OOD) items remains a challenge. We study two distinct methods to address this issue: RecLM-ret, a retrieval-based method, and RecLM-cgen, a constrained generation method. Both methods integrate seamlessly with existing LLMs to ensure in-domain recommendations. Comprehensive experiments on three recommendation datasets demonstrate that RecLM-cgen consistently outperforms RecLM-ret and existing LLM-based recommender models in accuracy while eliminating OOD recommendations, making it the preferred method for adoption. Additionally, RecLM-cgen maintains strong generalist capabilities and is a lightweight plug-and-play module for easy integration into LLMs, offering valuable practical benefits for the community. Source code is available at https://github.com/microsoft/RecAI
- Abstract(参考訳): 大規模言語モデル(LLM)は、ユーザインタラクションにおける変換能力のため、生成レコメンデーションシステムへの期待を示している。
しかし、ドメイン外(OOD)項目を推奨しないことは、依然として課題である。
本稿では,検索手法であるRecLM-retと制約付き生成手法であるRecLM-cgenの2つの異なる手法について検討する。
どちらのメソッドも既存のLLMとシームレスに統合し、ドメイン内のレコメンデーションを保証する。
3つのレコメンデーションデータセットに関する総合的な実験により、RecLM-cgenは、OODレコメンデーションを排除しながら、RecLM-retおよび既存のLLMベースのレコメンデーションモデルよりも一貫して精度が高いことが示され、採用が好まれる。
さらに、RecLM-cgenは強力なジェネラリスト機能を維持しており、LLMに簡単に統合できる軽量なプラグイン・アンド・プレイモジュールであり、コミュニティにとって価値のある実用的利益を提供している。
ソースコードはhttps://github.com/microsoft/RecAIで入手できる。
関連論文リスト
- Leveraging LLMs, IDEs, and Semantic Embeddings for Automated Move Method Refactoring [34.91824310303815]
大きな言語モデルには専門家による提案があるが、信頼できない:最大80%の提案は幻覚である。
我々は,MOVEMETHODの推奨から実行まで,エンドツーエンドライフサイクル全体を自動化した最初のLLM完全パワーアシスタントを紹介する。
論文 参考訳(メタデータ) (2025-03-26T19:05:20Z) - Lost in Sequence: Do Large Language Models Understand Sequential Recommendation? [33.92662524009036]
大きな言語モデル(LLM)は、高度なテキスト理解能力とコンテキスト認識のおかげで、推奨のための有望なツールとして登場した。
本稿では,事前学習したSRecモデルから抽出したユーザ表現をLLMに蒸留することにより,LLMへのシーケンシャル情報の統合を向上する手法を提案する。
実験の結果, LLM-SRecは, ユーザの項目間相互作用の系列を理解する能力を高め, 最終的にレコメンデーション性能の向上につながることがわかった。
論文 参考訳(メタデータ) (2025-02-19T17:41:09Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Let Me Do It For You: Towards LLM Empowered Recommendation via Tool Learning [57.523454568002144]
大きな言語モデル(LLM)は、常識的な推論と外部ツールの活用の能力を示している。
ツール学習を通じてLLMを活用したレコメンデーションのためのフレームワークであるToolRecを紹介する。
属性の粒度を探索するプロセスとして推薦プロセスを定式化する。
属性指向ツールには,ランクツールと検索ツールの2種類がある。
論文 参考訳(メタデータ) (2024-05-24T00:06:54Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。