論文の概要: DLRREC: Denoising Latent Representations via Multi-Modal Knowledge Fusion in Deep Recommender Systems
- arxiv url: http://arxiv.org/abs/2512.00596v1
- Date: Sat, 29 Nov 2025 18:57:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.314945
- Title: DLRREC: Denoising Latent Representations via Multi-Modal Knowledge Fusion in Deep Recommender Systems
- Title(参考訳): DLRREC:ディープレコメンダシステムにおける多モード知識融合による潜在表現の認知
- Authors: Jiahao Tian, Zhenkai Wang,
- Abstract要約: 大規模言語モデル(LLM)はリッチで高次元でノイズの多いマルチモーダルな特徴を生成する。
これらの機能を静的入力として扱うことで、コアレコメンデーションタスクから切り離すことができる。
我々は,多モーダルかつ協調的な知識を深く融合させ,表現を認知させるという,重要な洞察に基づいて構築された新しいフレームワークを紹介した。
- 参考スコア(独自算出の注目度): 0.6875312133832079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern recommender systems struggle to effectively utilize the rich, yet high-dimensional and noisy, multi-modal features generated by Large Language Models (LLMs). Treating these features as static inputs decouples them from the core recommendation task. We address this limitation with a novel framework built on a key insight: deeply fusing multi-modal and collaborative knowledge for representation denoising. Our unified architecture introduces two primary technical innovations. First, we integrate dimensionality reduction directly into the recommendation model, enabling end-to-end co-training that makes the reduction process aware of the final ranking objective. Second, we introduce a contrastive learning objective that explicitly incorporates the collaborative filtering signal into the latent space. This synergistic process refines raw LLM embeddings, filtering noise while amplifying task-relevant signals. Extensive experiments confirm our method's superior discriminative power, proving that this integrated fusion and denoising strategy is critical for achieving state-of-the-art performance. Our work provides a foundational paradigm for effectively harnessing LLMs in recommender systems.
- Abstract(参考訳): 現代のレコメンデータシステムは、Large Language Models (LLM) によって生成されるリッチで高次元でノイズの多いマルチモーダル機能を有効に活用するのに苦労している。
これらの機能を静的入力として扱うことで、コアレコメンデーションタスクから切り離すことができる。
この制限に対処するために、重要な洞察に基づいて構築された新しいフレームワーク、つまり、表現を認知するためのマルチモーダルで協調的な知識を深く融合させます。
統合アーキテクチャは2つの主要な技術革新をもたらします。
まず,レコメンデーションモデルに直接デメンデーションレコメンデーションレコメンデーションを組み込むことで,最終ランク付けの目的を認識させるエンド・ツー・エンドのコトレーニングを可能にする。
第2に、協調フィルタリング信号を潜在空間に明示的に組み込む、対照的な学習目標を導入する。
この相乗的プロセスは、タスク関連信号を増幅しながら、生のLLM埋め込みを洗練し、ノイズをフィルタリングする。
総合的な実験により,本手法の優れた識別能力が確認され,この統合融合・復号化戦略が最先端の性能を達成する上で重要であることが証明された。
我々の研究は、レコメンデーションシステムにおいてLLMを効果的に活用するための基礎パラダイムを提供する。
関連論文リスト
- Language Ranker: A Lightweight Ranking framework for LLM Decoding [70.01564145836129]
本稿では,レコメンデーションパイプラインのランク付け段階に類似した復号過程を概念化する。
この知見に触発されて、我々はLanguage Rankerを提案する。
実験の結果、Language Rankerは大規模報酬モデルに匹敵するパフォーマンスを達成する一方で、0.5Mの追加パラメータしか必要としないことがわかった。
論文 参考訳(メタデータ) (2025-10-23T17:56:46Z) - Empowering Denoising Sequential Recommendation with Large Language Model Embeddings [18.84444501128626]
シーケンシャルレコメンデーションは、ユーザとイテムのインタラクションにおけるシーケンシャルパターンをモデル化することで、ユーザの好みを捉えることを目的としている。
ノイズの影響を低減するために,ノイズのある項目を明示的に識別・除去することを提案する研究もある。
協調情報と意味情報を統合したIADSR(Interest Alignment for Denoising Sequential Recommendation)を提案する。
論文 参考訳(メタデータ) (2025-10-05T15:10:51Z) - SimpleGVR: A Simple Baseline for Latent-Cascaded Video Super-Resolution [46.311223206965934]
後続の超解像モデルの設計原理について検討し,その設計原理について検討する。
まず、ベースモデルの出力特性をよりよく模倣し、VSRモデルと上流ジェネレータとの整合性を確保するための2つのトレーニングペアを生成する方法を提案する。
第2に,(1)時間ステップサンプリング戦略,(2)低分解能(LR)入力に対する雑音増強効果の系統的解析を通じて,VSRモデル行動に対する批判的洞察を提供する。
論文 参考訳(メタデータ) (2025-06-24T17:57:26Z) - EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Semantic Convergence: Harmonizing Recommender Systems via Two-Stage Alignment and Behavioral Semantic Tokenization [10.47505806629852]
大規模言語モデル(LLM)は、歴史的行動からユーザの深い関心を識別する能力を持っている。
従来のレコメンデーションモデルとLLMの長所を調和的に融合する新しいフレームワークを提案する。
我々は、協調的な信号と自然言語意味論の微妙さを整合させることを目的とした、教師付き学習タスクのシリーズを設計する。
論文 参考訳(メタデータ) (2024-12-18T12:07:58Z) - The Silent Assistant: NoiseQuery as Implicit Guidance for Goal-Driven Image Generation [31.599902235859687]
本稿では,テキストプロンプトなどの明示的なユーザ定義入力を補完する暗黙のガイダンスとして,一致したガウスノイズを活用することを提案する。
NoiseQueryはきめ細かい制御を可能にし、ハイレベルなセマンティクスや低レベルなビジュアル属性よりもパフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2024-12-06T14:59:00Z) - NoteLLM-2: Multimodal Large Representation Models for Recommendation [71.87790090964734]
大規模言語モデル(LLM)は、テキスト理解や埋め込みタスクにおいて、例外的な習熟度を示している。
マルチモーダル表現のポテンシャル、特にアイテムツーイテム(I2I)レコメンデーションについては、未解明のままである。
本稿では,既存のLLMと視覚エンコーダの統合をカスタマイズし,効率的なマルチモーダル表現を実現するエンド・ツー・エンドのファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T03:24:01Z) - Collaborative Filtering Based on Diffusion Models: Unveiling the Potential of High-Order Connectivity [10.683635786183894]
CF-Diffは新しい拡散モデルに基づく協調フィルタリング手法である。
マルチホップの隣人と一緒に、協調的な信号を完全に活用することができる。
最高の競争相手に比べて7.29%も上昇している。
論文 参考訳(メタデータ) (2024-04-22T14:49:46Z) - T-REX: Mixture-of-Rank-One-Experts with Semantic-aware Intuition for Multi-task Large Language Model Finetuning [31.276142111455847]
大規模言語モデル(LLM)は多様なマルチタスクの微調整において重要な適応課題に直面している。
我々はmixunderlinetextbfTureunderlinetextbf-of-underlinetextbfRank-onunderlinetextbfE-eunderlinetextbfXper ts (textttT-REX) という新しいフレームワークを設計する。
Rank-1のエキスパートは、ミックス・アンド・マッチのメカニズムにより、線形パラメータのオーバーヘッドを持つエキスパートのベクトル部分空間を2次に拡張し、最適で近似誤差削減を達成することができる。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。