論文の概要: Selective LLM-Guided Regularization for Enhancing Recommendation Models
- arxiv url: http://arxiv.org/abs/2512.21526v1
- Date: Thu, 25 Dec 2025 06:30:00 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:51:28.021031
- Title: Selective LLM-Guided Regularization for Enhancing Recommendation Models
- Title(参考訳): レコメンデーションモデル構築のための選択型LCMガイド正規化
- Authors: Shanglin Yang, Zhan Shi,
- Abstract要約: トレーニング可能なゲーティング機構がユーザ履歴の長さやアイテムの人気,モデルの不確実性によってLCMの信頼性が予測される場合にのみ,LCMに基づくペアワイズランキング管理を活性化する,モデルに依存しない効率的なフレームワークを提案する。
複数のデータセットにまたがる実験により、この選択的戦略は全体的な精度を一貫して改善し、コールドスタートとロングテールレジームにおいてかなりの利益をもたらし、世界的な蒸留ベースラインを上回っていることが示された。
- 参考スコア(独自算出の注目度): 7.406718588794206
- License:
- Abstract: Large language models provide rich semantic priors and strong reasoning capabilities, making them promising auxiliary signals for recommendation. However, prevailing approaches either deploy LLMs as standalone recommender or apply global knowledge distillation, both of which suffer from inherent drawbacks. Standalone LLM recommender are costly, biased, and unreliable across large regions of the user item space, while global distillation forces the downstream model to imitate LLM predictions even when such guidance is inaccurate. Meanwhile, recent studies show that LLMs excel particularly in re-ranking and challenging scenarios, rather than uniformly across all contexts.We introduce Selective LLM Guided Regularization, a model-agnostic and computation efficient framework that activates LLM based pairwise ranking supervision only when a trainable gating mechanism informing by user history length, item popularity, and model uncertainty predicts the LLM to be reliable. All LLM scoring is performed offline, transferring knowledge without increasing inference cost. Experiments across multiple datasets show that this selective strategy consistently improves overall accuracy and yields substantial gains in cold start and long tail regimes, outperforming global distillation baselines.
- Abstract(参考訳): 大規模な言語モデルは、リッチなセマンティックな事前情報と強力な推論機能を提供し、推奨のために有望な補助信号を提供する。
しかし、一般的なアプローチは、LCMをスタンドアローンのレコメンデーターとしてデプロイするか、グローバルな知識蒸留を適用するかのいずれかであり、どちらも固有の欠点に悩まされている。
スタンドアローンLLMレコメンデータは、ユーザアイテムスペースの広い領域で費用がかかり、偏りがあり、信頼性が低いが、グローバル蒸留では、そのようなガイダンスが不正確であっても、下流モデルにLLM予測を模倣させる。
一方、近年の研究では、LLMはあらゆる文脈で一様ではなく、特に再ランク付けや難解なシナリオに優れており、Selective LLM Guided Regularizationを導入している。
LLMスコアはすべてオフラインで行われ、推論コストを増大させることなく知識を伝達する。
複数のデータセットにまたがる実験により、この選択的戦略は全体的な精度を一貫して改善し、コールドスタートとロングテールレジームにおいてかなりの利益をもたらし、世界的な蒸留ベースラインを上回っていることが示された。
関連論文リスト
- LLM as Explainable Re-Ranker for Recommendation System [3.0720618129954875]
従来のレコメンデーションシステムは説明可能性に欠けることが多く、人気バイアスのような問題に悩まされる。
本稿では,大規模言語モデル(LLM)を説明可能なリランカとして使用し,精度と解釈性の両方を向上させることを提案する。
論文 参考訳(メタデータ) (2025-12-03T04:42:58Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - On Learning to Summarize with Large Language Models as References [101.79795027550959]
大型言語モデル (LLM) は、一般的な要約データセットにおける元の参照要約よりも人間のアノテーションに好まれる。
より小さなテキスト要約モデルに対するLLM-as-reference学習設定について検討し,その性能が大幅に向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-05-23T16:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。