論文の概要: LLM4Rec: Large Language Models for Multimodal Generative Recommendation with Causal Debiasing
- arxiv url: http://arxiv.org/abs/2510.01622v1
- Date: Thu, 02 Oct 2025 02:53:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.963313
- Title: LLM4Rec: Large Language Models for Multimodal Generative Recommendation with Causal Debiasing
- Title(参考訳): LLM4Rec:Causal Debiasingによるマルチモーダル生成レコメンデーションのための大規模言語モデル
- Authors: Bo Ma, Hang Li, ZeHua Hu, XiaoFan Gui, LuYao Liu, Simon Lau,
- Abstract要約: 本稿では,5つの重要なイノベーションを取り入れた改良型生成レコメンデーションフレームワークを提案する。
マルチモーダル融合アーキテクチャ、検索強化生成機構、因果推論に基づくデバイアス、説明可能なレコメンデーション生成、リアルタイム適応学習機能。
- 参考スコア(独自算出の注目度): 4.638507244153875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary generative recommendation systems face significant challenges in handling multimodal data, eliminating algorithmic biases, and providing transparent decision-making processes. This paper introduces an enhanced generative recommendation framework that addresses these limitations through five key innovations: multimodal fusion architecture, retrieval-augmented generation mechanisms, causal inference-based debiasing, explainable recommendation generation, and real-time adaptive learning capabilities. Our framework leverages advanced large language models as the backbone while incorporating specialized modules for cross-modal understanding, contextual knowledge integration, bias mitigation, explanation synthesis, and continuous model adaptation. Extensive experiments on three benchmark datasets (MovieLens-25M, Amazon-Electronics, Yelp-2023) demonstrate consistent improvements in recommendation accuracy, fairness, and diversity compared to existing approaches. The proposed framework achieves up to 2.3% improvement in NDCG@10 and 1.4% enhancement in diversity metrics while maintaining computational efficiency through optimized inference strategies.
- Abstract(参考訳): 現代生成レコメンデーションシステムは、マルチモーダルデータの扱い、アルゴリズムバイアスの排除、透明性のある意思決定プロセスの提供において、重大な課題に直面している。
本稿では, マルチモーダル融合アーキテクチャ, 検索強化生成機構, 因果推論に基づくデバイアス, 説明可能なレコメンデーション生成, リアルタイム適応学習能力の5つの重要な革新を通じて, これらの制約に対処する改良された生成レコメンデーションフレームワークを提案する。
本フレームワークは, クロスモーダル理解, 文脈知識の統合, バイアス緩和, 説明合成, 連続モデル適応のための特別なモジュールを取り入れながら, 高度な大規模言語モデルをバックボーンとして活用する。
3つのベンチマークデータセット(MovieLens-25M、Amazon-Electronics、Yelp-2023)に対する大規模な実験は、既存のアプローチと比較して、レコメンデーションの正確性、公平性、多様性が一貫して改善されていることを示している。
提案手法は, NDCG@10の最大2.3%の改善と多様性指標の1.4%向上を実現し, 最適化推論戦略による計算効率の維持を実現している。
関連論文リスト
- RecLLM-R1: A Two-Stage Training Paradigm with Reinforcement Learning and Chain-of-Thought v1 [20.92548890511589]
本稿では,Large Language Models(LLM)を利用したレコメンデーションフレームワークであるRecLLM-R1を紹介する。
RecLLM-R1は、精度、多様性、新規性など、さまざまな評価指標において、既存のベースラインメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2025-06-24T01:39:34Z) - REMoH: A Reflective Evolution of Multi-objective Heuristics approach via Large Language Models [39.85828629779943]
多目的最適化は、複雑な意思決定タスクにおいて基礎となる。
大規模言語モデル(LLM)の最近の進歩は、説明可能性、適応性、推論の強化を提供する。
本研究では,NSGA-II と LLM を融合した新たなフレームワークである REMoH (Reflectionive Evolution of Multi-Objective Heuristics) を提案する。
論文 参考訳(メタデータ) (2025-06-09T13:38:28Z) - Bidirectional Knowledge Distillation for Enhancing Sequential Recommendation with Large Language Models [28.559223475725137]
大規模言語モデル(LLM)は、意味的パターンの理解と生成において、例外的な性能を示した。
LLMは、しばしば高い推論コストと静的な知識伝達方法に関連する課題に直面している。
本稿では,動的および双方向の知識交換を促進する新しい相互蒸留フレームワークLLMD4Recを提案する。
論文 参考訳(メタデータ) (2025-05-23T17:21:14Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - MMEvol: Empowering Multimodal Large Language Models with Evol-Instruct [148.39859547619156]
我々は,新しいマルチモーダル命令データ進化フレームワークであるMMEvolを提案する。
MMEvolは、きめ細かい知覚、認知的推論、相互作用の進化の洗練された組み合わせによって、データ品質を反復的に改善する。
提案手法は,9つのタスクにおいて,最先端モデルに比べて有意に少ない精度でSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T17:44:00Z) - MMREC: LLM Based Multi-Modal Recommender System [2.3113916776957635]
本稿では,Large Language Models(LLM)とディープラーニング技術を活用して,レコメンデータシステムを強化する新しい手法を提案する。
提案フレームワークは,マルチモーダル情報処理を取り入れたレコメンデーションの精度と妥当性を,統一された潜在空間表現を用いて向上することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T04:31:29Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。