論文の概要: LLM-Enhanced Linear Autoencoders for Recommendation
- arxiv url: http://arxiv.org/abs/2508.13500v1
- Date: Tue, 19 Aug 2025 04:20:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.791582
- Title: LLM-Enhanced Linear Autoencoders for Recommendation
- Title(参考訳): LLMによるレコメンデーション用リニアオートエンコーダ
- Authors: Jaewan Moon, Seongmin Park, Jongwuk Lee,
- Abstract要約: 大規模言語モデル(LLM)は、レコメンダシステムにおけるテキスト項目情報のセマンティック表現を強化するために広く採用されている。
L3AE は LLM を LAE フレームワークに統合した最初の L3AE である。
大規模な実験により、L3AEは3つのベンチマークデータセット上で、最先端のLLM強化モデルよりも一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 10.992638978686923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have been widely adopted to enrich the semantic representation of textual item information in recommender systems. However, existing linear autoencoders (LAEs) that incorporate textual information rely on sparse word co-occurrence patterns, limiting their ability to capture rich textual semantics. To address this, we propose L3AE, the first integration of LLMs into the LAE framework. L3AE effectively integrates the heterogeneous knowledge of textual semantics and user-item interactions through a two-phase optimization strategy. (i) L3AE first constructs a semantic item-to-item correlation matrix from LLM-derived item representations. (ii) It then learns an item-to-item weight matrix from collaborative signals while distilling semantic item correlations as regularization. Notably, each phase of L3AE is optimized through closed-form solutions, ensuring global optimality and computational efficiency. Extensive experiments demonstrate that L3AE consistently outperforms state-of-the-art LLM-enhanced models on three benchmark datasets, achieving gains of 27.6% in Recall@20 and 39.3% in NDCG@20. The source code is available at https://github.com/jaewan7599/L3AE_CIKM2025.
- Abstract(参考訳): 大規模言語モデル(LLM)は、レコメンダシステムにおけるテキスト項目情報のセマンティック表現を強化するために広く採用されている。
しかし、テキスト情報を含む既存の線形オートエンコーダ(LAEs)は、疎単語共起パターンに依存しており、リッチなテキストセマンティクスをキャプチャする能力を制限している。
そこで本研究では, LLM を LAE フレームワークに統合した L3AE を提案する。
L3AEは、2相最適化戦略を通じてテキスト意味論とユーザ-イテム相互作用の異種知識を効果的に統合する。
i) L3AE は LLM 由来の項目表現から意味的項目間相関行列を最初に構築する。
(II)正規化として意味項目相関を蒸留しながら協調信号から項目間重み行列を学習する。
特に、L3AEの各位相は閉形式解によって最適化され、大域的最適性と計算効率が保証される。
大規模な実験により、L3AEは3つのベンチマークデータセット上で、最先端のLLMモデルよりも一貫して優れており、Recall@20では27.6%、NDCG@20では39.3%向上している。
ソースコードはhttps://github.com/jaewan7599/L3AE_CIKM2025で公開されている。
関連論文リスト
- LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Weighted-Reward Preference Optimization for Implicit Model Fusion [35.57286356489511]
提案手法は,ソースLLMとターゲットLLM間の優先最適化を有効に活用する暗黙融合方式を提案する。
WRPOは語彙アライメントやマトリックス融合の必要性を排除し、様々なLSMに対応するために効率的にスケールすることができる。
MT-Bench、AlpacaEval-2、Arena-Hardベンチマークの実験は、WRPOが既存の知識融合法より一貫して優れていることを示した。
論文 参考訳(メタデータ) (2024-12-04T10:15:12Z) - Bridging LLMs and KGs without Fine-Tuning: Intermediate Probing Meets Subgraph-Aware Entity Descriptions [49.36683223327633]
大規模言語モデル(LLM)は、幅広い世界の知識をカプセル化し、強力なコンテキストモデリング能力を示す。
実効的で効率的なKGCを実現するために,LLMの強みを頑健な知識表現と相乗化するための新しいフレームワークを提案する。
従来手法に比べて47%の相対的な改善を達成し,我々の知る限り,ファインチューニング LLM に匹敵する分類性能を初めて達成した。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。