論文の概要: Following the TRAIL: Predicting and Explaining Tomorrow's Hits with a Fine-Tuned LLM
- arxiv url: http://arxiv.org/abs/2602.04225v1
- Date: Wed, 04 Feb 2026 05:22:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.382277
- Title: Following the TRAIL: Predicting and Explaining Tomorrow's Hits with a Fine-Tuned LLM
- Title(参考訳): TRAILに続き:明日のヒットを予測し、説明する
- Authors: Yinan Zhang, Zhixi Chen, Jiazheng Jing, Zhiqi Shen,
- Abstract要約: TRAILは、短期的な項目の人気を予測し、忠実な自然言語の説明を生成する、微調整された大規模言語モデルである。
正と負のペアによる対照的な学習を用いて、スコアと説明を構造化されたトレンド信号と整合させる。
広範囲にわたる実験により、TRAILは強いベースラインを上回り、一貫性のある、しっかりとした説明を生み出すことが示されている。
- 参考スコア(独自算出の注目度): 8.031956387083126
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have been widely applied across multiple domains for their broad knowledge and strong reasoning capabilities. However, applying them to recommendation systems is challenging since it is hard for LLMs to extract user preferences from large, sparse user-item logs, and real-time per-user ranking over the full catalog is too time-consuming to be practical. Moreover, many existing recommender systems focus solely on ranking items while overlooking explanations, which could help improve predictive accuracy and make recommendations more convincing to users. Inspired by recent works that achieve strong recommendation performance by forecasting near-term item popularity, we propose TRAIL (TRend and explAnation Integrated Learner). TRAIL is a fine-tuned LLM that jointly predicts short-term item popularity and generates faithful natural-language explanations. It employs contrastive learning with positive and negative pairs to align its scores and explanations with structured trend signals, yielding accurate and explainable popularity predictions. Extensive experiments show that TRAIL outperforms strong baselines and produces coherent, well-grounded explanations.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広い知識と強力な推論能力のために、複数のドメインに広く適用されている。
しかし,レコメンデーションシステムに適用することは,LLMが大小のユーザ項目ログからユーザの好みを抽出することが困難であり,全カタログ上でのユーザ毎のランキングのリアルタイム化には時間がかかりすぎるため,現実的ではない。
さらに、既存のレコメンデーションシステムは、説明を覆しながらランキング項目のみに焦点を当てており、予測精度を改善し、ユーザにより説得力のあるレコメンデーションを提供する。
短期項目の人気を予測し,推薦性能を高める最近の研究に触発され,TRAIL (TRend and explAnation Integrated Learner) を提案する。
TRAILは、短期項目の人気を共同で予測し、忠実な自然言語の説明を生成する微調整LDMである。
正と負のペアによる対照的な学習を用いて、スコアと説明を構造化されたトレンド信号と整合させ、正確で説明可能な人気予測をもたらす。
広範囲にわたる実験により、TRAILは強いベースラインを上回り、一貫性のある、しっかりとした説明を生み出すことが示されている。
関連論文リスト
- Review-driven Personalized Preference Reasoning with Large Language Models for Recommendation [21.769969074938142]
EXP3RTは、ユーザとアイテムレビューに含まれるリッチな好み情報を活用するために設計された、LLMベースの新しいレコメンデータである。
詳細なステップバイステップの推論と予測された評価を生成する。
実験の結果、EXP3RTは評価予測と候補項目の双方において、トップkレコメンデーションにおいて既存の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-08-12T16:39:03Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Improving Factual Consistency of News Summarization by Contrastive Preference Optimization [65.11227166319546]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
本稿では,LLMの適合性を解消し,忠実で偽のコンテンツを生成するコントラスト優先最適化(CPO)を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。