論文の概要: Towards Comprehensible Recommendation with Large Language Model Fine-tuning
- arxiv url: http://arxiv.org/abs/2508.07595v1
- Date: Mon, 11 Aug 2025 03:55:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.934232
- Title: Towards Comprehensible Recommendation with Large Language Model Fine-tuning
- Title(参考訳): 大規模言語モデルファインチューニングによる包括的レコメンデーションに向けて
- Authors: Yunze Luo, Yinjie Jiang, Gaode Chen, Xinghua Zhang, Jun Zhang, Jian Liang, Kaigui Bian,
- Abstract要約: 本稿では,コラボレーティブ・パースペクティブ・フレームワーク(CURec)によるレコメンデーションシステムのための新しいコンテンツ理解手法を提案する。
Curecは、より包括的なレコメンデーションのために、協調的なコンテンツ機能を生成する。
公開ベンチマークの実験では、既存の方法よりもCURecの方が優れていることが示されている。
- 参考スコア(独自算出の注目度): 41.218487308635126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems have become increasingly ubiquitous in daily life. While traditional recommendation approaches primarily rely on ID-based representations or item-side content features, they often fall short in capturing the underlying semantics aligned with user preferences (e.g., recommendation reasons for items), leading to a semantic-collaborative gap. Recently emerged LLM-based feature extraction approaches also face a key challenge: how to ensure that LLMs possess recommendation-aligned reasoning capabilities and can generate accurate, personalized reasons to mitigate the semantic-collaborative gap. To address these issues, we propose a novel Content Understanding from a Collaborative Perspective framework (CURec), which generates collaborative-aligned content features for more comprehensive recommendations. \method first aligns the LLM with recommendation objectives through pretraining, equipping it with instruction-following and chain-of-thought reasoning capabilities. Next, we design a reward model inspired by traditional recommendation architectures to evaluate the quality of the recommendation reasons generated by the LLM. Finally, using the reward signals, CURec fine-tunes the LLM through RL and corrects the generated reasons to ensure their accuracy. The corrected reasons are then integrated into a downstream recommender model to enhance comprehensibility and recommendation performance. Extensive experiments on public benchmarks demonstrate the superiority of CURec over existing methods.
- Abstract(参考訳): レコメンダシステムは日々の生活の中でますます普及している。
従来のレコメンデーションアプローチは、主にIDベースの表現やアイテムサイドのコンテンツ機能に依存しているが、ユーザ好み(例えば、アイテムのレコメンデーション理由)に沿った基本的なセマンティクスの取得に不足することが多く、セマンティクスとコラボレーティブのギャップが生じる。
最近登場したLLMベースの特徴抽出アプローチは、LLMがレコメンデーション整合推論能力を持ち、セマンティックコラボレーティブギャップを軽減するための正確でパーソナライズされた理由をどうやって生成するかという、重要な課題に直面している。
これらの課題に対処するために,より包括的なレコメンデーションのために協調的なコンテンツ機能を生成する,協調的パースペクティブフレームワーク(CURec)による新しいコンテンツ理解を提案する。
\method はまず LLM を事前学習を通じて推奨目標と整合させ、命令追従と連鎖推論能力を備える。
次に、従来のレコメンデーションアーキテクチャにインスパイアされた報酬モデルを設計し、LLMが生み出すレコメンデーション理由の質を評価する。
最後に、報酬信号を用いて、CURec は LLM を RL を通して微調整し、生成した理由を補正し、その精度を保証する。
修正された理由は、理解性とレコメンデーションパフォーマンスを高めるために、下流のレコメンデータモデルに統合されます。
公開ベンチマークに関する大規模な実験は、既存の方法よりもCURecの方が優れていることを示している。
関連論文リスト
- $\text{R}^2\text{ec}$: Towards Large Recommender Models with Reasoning [50.291998724376654]
我々は,本質的な推論機能を備えた統合された大規模レコメンデータモデルであるnameを提案する。
RecPOは、単一のポリシー更新で推論とレコメンデーションの両方の機能を同時に最適化する、対応する強化学習フレームワークである。
さまざまなベースラインを持つ3つのデータセットの実験では、Hit@5で68.67%、NDCG@20で45.21%の相対的な改善が見られた。
論文 参考訳(メタデータ) (2025-05-22T17:55:43Z) - Improving LLM Interpretability and Performance via Guided Embedding Refinement for Sequential Recommendation [18.13513199455587]
本稿では,ベースレコメンデーションシステムに付随する埋め込みを強化するための,ガイド付き埋め込み改良法を提案する。
我々は、解釈可能な属性のドメイン関連セマンティック情報をキャプチャするガイド付き埋め込みを生成する。
改良された埋め込みは平均相反ランク(MRR)、リコールレート、正規化された非カウント累積ゲイン(NDCG)の約10%から50%のゲインを達成する。
論文 参考訳(メタデータ) (2025-04-15T23:03:53Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - Semantic Convergence: Harmonizing Recommender Systems via Two-Stage Alignment and Behavioral Semantic Tokenization [10.47505806629852]
大規模言語モデル(LLM)は、歴史的行動からユーザの深い関心を識別する能力を持っている。
従来のレコメンデーションモデルとLLMの長所を調和的に融合する新しいフレームワークを提案する。
我々は、協調的な信号と自然言語意味論の微妙さを整合させることを目的とした、教師付き学習タスクのシリーズを設計する。
論文 参考訳(メタデータ) (2024-12-18T12:07:58Z) - Direct Preference Optimization for LLM-Enhanced Recommendation Systems [33.54698201942643]
大規模言語モデル(LLM)は、幅広い領域で顕著なパフォーマンスを示している。
我々は,DPOをLLM強化レコメンデーションシステムに統合するフレームワークであるDPO4Recを提案する。
大規模な実験により、DPO4Recは強いベースラインよりも性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-10-08T11:42:37Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。