論文の概要: FACE: A General Framework for Mapping Collaborative Filtering Embeddings into LLM Tokens
- arxiv url: http://arxiv.org/abs/2510.15729v1
- Date: Fri, 17 Oct 2025 15:19:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.676106
- Title: FACE: A General Framework for Mapping Collaborative Filtering Embeddings into LLM Tokens
- Title(参考訳): FACE: コラボレーションフィルタリングの埋め込みをLLMトークンにマッピングするための一般的なフレームワーク
- Authors: Chao Wang, Yixin Song, Jinhui Ye, Chuan Qin, Dazhong Shen, Lingfeng Liu, Xiang Wang, Yanyong Zhang,
- Abstract要約: 大規模言語モデル(LLM)は、協調フィルタリング(CF)ベースのレコメンデーションシステムと統合するために研究されている。
重要な課題は、LCMがCFアプローチが生み出す非セマンティックな埋め込みを解釈するのに苦労していることである。
FACEはCF埋め込みを事前訓練されたLLMトークンにマッピングする一般的な解釈可能なフレームワークである。
- 参考スコア(独自算出の注目度): 28.971310672971914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, large language models (LLMs) have been explored for integration with collaborative filtering (CF)-based recommendation systems, which are crucial for personalizing user experiences. However, a key challenge is that LLMs struggle to interpret the latent, non-semantic embeddings produced by CF approaches, limiting recommendation effectiveness and further applications. To address this, we propose FACE, a general interpretable framework that maps CF embeddings into pre-trained LLM tokens. Specifically, we introduce a disentangled projection module to decompose CF embeddings into concept-specific vectors, followed by a quantized autoencoder to convert continuous embeddings into LLM tokens (descriptors). Then, we design a contrastive alignment objective to ensure that the tokens align with corresponding textual signals. Hence, the model-agnostic FACE framework achieves semantic alignment without fine-tuning LLMs and enhances recommendation performance by leveraging their pre-trained capabilities. Empirical results on three real-world recommendation datasets demonstrate performance improvements in benchmark models, with interpretability studies confirming the interpretability of the descriptors. Code is available in https://github.com/YixinRoll/FACE.
- Abstract(参考訳): 近年,ユーザエクスペリエンスのパーソナライズに不可欠である協調フィルタリング(CF)ベースのレコメンデーションシステムとの統合のために,大規模言語モデル(LLM)が検討されている。
しかし、重要な課題は、LCMがCFアプローチが生み出す潜伏した非セマンティックな埋め込みを解釈するのに苦労し、推奨の有効性とさらなる応用を制限することである。
そこで本研究では,CF埋め込みを事前学習したLLMトークンにマッピングする一般解釈可能なフレームワークであるFACEを提案する。
具体的には、CFの埋め込みを概念固有のベクトルに分解する非交叉射影モジュールを導入し、続いて連続的な埋め込みをLCMトークン(ディスクリプタ)に変換する量子化オートエンコーダを提案する。
そして,トークンが対応するテキスト信号と一致することを保証するために,コントラスト的アライメント目的を設計する。
したがって、モデルに依存しないFACEフレームワークは、微調整のLLMを使わずにセマンティックアライメントを実現し、事前訓練された能力を活用してレコメンデーション性能を向上させる。
3つの実世界のレコメンデーションデータセットの実証的な結果は、ベンチマークモデルのパフォーマンス改善を示し、解釈可能性の研究は、記述子の解釈可能性を確認する。
コードはhttps://github.com/YixinRoll/FACEで入手できる。
関連論文リスト
- ReaLM: Residual Quantization Bridging Knowledge Graph Embeddings and Large Language Models [18.720486146234077]
大言語モデル(LLM)は知識グラフ補完(KGC)の強力なパラダイムとして登場した。
我々は、KG埋め込みとLLMトークン化のギャップを埋める、新しく効果的なフレームワークであるReaLMを提案する。
本稿では,ReaLMが最先端性能を実現し,構造化知識と大規模言語モデルとの整合性を確認した。
論文 参考訳(メタデータ) (2025-10-10T04:36:13Z) - FuDoBa: Fusing Document and Knowledge Graph-based Representations with Bayesian Optimisation [43.56253799373878]
本稿では,LLMに基づく埋め込みとドメイン固有の構造化知識を統合したベイズ最適化に基づくFuDoBaを紹介する。
この融合は、訓練の複雑さを減らし、解釈可能な早期融合重みを生み出すとともに、低次元のタスク関連表現を生成する。
2つの領域における6つのデータセットに対するアプローチの有効性を実証し、提案した表現学習アプローチが、プロプライエタリなLCMベースの埋め込みベースラインでのみ生成されるものと同程度に、あるいは超えていることを示す。
論文 参考訳(メタデータ) (2025-07-09T07:49:55Z) - When Transformers Meet Recommenders: Integrating Self-Attentive Sequential Recommendation with Fine-Tuned LLMs [0.0]
SASRecLLMは、Low-Rank Adaptation (LoRA)を使用して微調整されたLLMで、SASRecをコラボレーティブエンコーダとして統合する新しいフレームワークである。
複数のデータセットの実験によると、SASRecLLMは、コールドスタートとウォームスタートの両方のシナリオにおいて、強いベースラインよりも堅牢で一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2025-07-08T07:26:55Z) - LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - MLLM-Guided VLM Fine-Tuning with Joint Inference for Zero-Shot Composed Image Retrieval [50.062817677022586]
Zero-Shot Image Retrieval (ZS-CIR) メソッドは通常、参照イメージを擬似テキストトークンに変換するアダプタを訓練する。
MLLM-Guided VLM Fine-Tuning with Joint Inference (MVFT-JI) を提案する。
論文 参考訳(メタデータ) (2025-05-26T08:56:59Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。