論文の概要: Token-level Collaborative Alignment for LLM-based Generative Recommendation
- arxiv url: http://arxiv.org/abs/2601.18457v1
- Date: Mon, 26 Jan 2026 13:05:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.83055
- Title: Token-level Collaborative Alignment for LLM-based Generative Recommendation
- Title(参考訳): LLMに基づくジェネレーティブレコメンデーションのためのトークンレベル協調アライメント
- Authors: Fake Lin, Binbin Hu, Zhi Zheng, Xi Zhu, Ziqi Liu, Zhiqiang Zhang, Jun Zhou, Tong Xu,
- Abstract要約: Token-level Collaborative Alignment for Recommendation (TCA4Rec)は、モデルに依存しないプラグイン・アンド・プレイフレームワークである。
TCA4Rec は,CF モデルや LLM ベースのレコメンデータシステムにおいて,幅広い範囲にわたるレコメンデーション性能を継続的に向上することを示す。
- 参考スコア(独自算出の注目度): 34.778534684670895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated strong potential for generative recommendation by leveraging rich semantic knowledge. However, existing LLM-based recommender systems struggle to effectively incorporate collaborative filtering (CF) signals, due to a fundamental mismatch between item-level preference modeling in CF and token-level next-token prediction (NTP) optimization in LLMs. Prior approaches typically treat CF as contextual hints or representation bias, and resort to multi-stage training to reduce behavioral semantic space discrepancies, leaving CF unable to explicitly regulate LLM generation. In this work, we propose Token-level Collaborative Alignment for Recommendation (TCA4Rec), a model-agnostic and plug-and-play framework that establishes an explicit optimization-level interface between CF supervision and LLM generation. TCA4Rec consists of (i) Collaborative Tokenizer, which projects raw item-level CF logits into token-level distributions aligned with the LLM token space, and (ii) Soft Label Alignment, which integrates these CF-informed distributions with one-hot supervision to optimize a soft NTP objective. This design preserves the generative nature of LLM training while enabling collaborative alignment with essential user preference of CF models. We highlight TCA4Rec is compatible with arbitrary traditional CF models and generalizes across a wide range of decoder-based LLM recommender architectures. Moreover, it provides an explicit mechanism to balance behavioral alignment and semantic fluency, yielding generative recommendations that are both accurate and controllable. Extensive experiments demonstrate that TCA4Rec consistently improves recommendation performance across a broad spectrum of CF models and LLM-based recommender systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、豊かな意味的知識を活用することによって、生成的推薦に強い可能性を示している。
しかし、既存のLLMベースのレコメンデータシステムは、CFにおけるアイテムレベルの嗜好モデリングとLLMにおけるトークンレベルの次世代予測(NTP)の基本的なミスマッチのため、協調フィルタリング(CF)信号を効果的に組み込むのに苦労している。
従来のアプローチでは、CFを文脈的ヒントや表現バイアスとして扱い、行動意味空間の相違を減らすためのマルチステージトレーニングを採用しており、CFはLLM生成を明示的に規制することができない。
本研究では,CF 監督と LLM 生成の間に明確な最適化レベルインターフェースを確立するモデルに依存しない,プラグイン・アンド・プレイフレームワークである Token-level Collaborative Alignment for Recommendation (TCA4Rec) を提案する。
TCA4Recは
一 LLMトークン空間に整合したトークンレベル分布に生のアイテムレベルCFロジットを投射する協調トークン化装置
(II)ソフトラベルアライメントは、これらのCFインフォームド分布とワンホットインスペクションを統合し、ソフトNTPの目的を最適化する。
本設計は,CFモデルのユーザ嗜好と協調的に協調しながら,LLMトレーニングの生成性を保ちながら維持する。
TCA4Recは任意のCFモデルと互換性があり、幅広いデコーダベースのLLMレコメンデータアーキテクチャにまたがって一般化されている。
さらに、行動アライメントとセマンティック・フラエンシのバランスをとるための明確なメカニズムを提供し、正確かつ制御可能な生成的レコメンデーションを提供する。
TCA4Recは、幅広いCFモデルとLLMベースのレコメンデータシステムにわたるレコメンデーション性能を一貫して改善することを示した。
関連論文リスト
- FACE: A General Framework for Mapping Collaborative Filtering Embeddings into LLM Tokens [28.971310672971914]
大規模言語モデル(LLM)は、協調フィルタリング(CF)ベースのレコメンデーションシステムと統合するために研究されている。
重要な課題は、LCMがCFアプローチが生み出す非セマンティックな埋め込みを解釈するのに苦労していることである。
FACEはCF埋め込みを事前訓練されたLLMトークンにマッピングする一般的な解釈可能なフレームワークである。
論文 参考訳(メタデータ) (2025-10-17T15:19:54Z) - Beyond Semantic Understanding: Preserving Collaborative Frequency Components in LLM-based Recommendation [7.014265360936046]
FreLLM4Recは、スペクトルの観点からの意味的および協調的な情報のバランスをとるために設計されたアプローチである。
4つのベンチマークデータセットの実験により、FreLLM4Recは協調的な信号減衰を軽減した。
論文 参考訳(メタデータ) (2025-08-14T03:33:02Z) - Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - LLMInit: A Free Lunch from Large Language Models for Selective Initialization of Recommendation [34.227734210743904]
協調フィルタリングモデルは、レコメンデーションシステムのためのユーザ-イテムインタラクションをキャプチャする上で、強力なパフォーマンスを示している。
GPTやLLaMAのような大規模言語モデル(LLM)の出現は、レコメンデーションパフォーマンスを向上する新たな可能性を示している。
論文 参考訳(メタデータ) (2025-03-03T18:41:59Z) - LLM-KT: A Versatile Framework for Knowledge Transfer from Large Language Models to Collaborative Filtering [0.07793154724386657]
LLM生成機能をシームレスに統合することにより、協調フィルタリング(CF)モデルを強化するフレキシブルなフレームワークを提案する。
我々のフレームワークは、これらの機能を任意のCFモデルの中間層に注入し、モデルが内部の埋め込みを再構築し、活用できるようにする。
私たちのフレームワークは統合と修正を容易にするために構築されており、研究者や開発者がCFモデル機能を拡張するための強力なツールを提供しています。
論文 参考訳(メタデータ) (2024-11-01T13:09:30Z) - LLM4MSR: An LLM-Enhanced Paradigm for Multi-Scenario Recommendation [52.55639178180821]
マルチシナリオレコメンデーション(MSR)の研究は注目されており、すべてのシナリオのデータを使用してレコメンデーションのパフォーマンスを同時に改善している。
既存の手法では、不十分なシナリオ知識を統合し、パーソナライズされたクロスシナリオの嗜好を無視する傾向があり、それによってサブ最適パフォーマンスがもたらされる。
本稿では,これらのギャップを埋めるために,大規模言語モデル (LLM) 拡張パラダイム LLM4MSR を提案する。
論文 参考訳(メタデータ) (2024-06-18T11:59:36Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。