論文の概要: Synergistic Integration and Discrepancy Resolution of Contextualized Knowledge for Personalized Recommendation
- arxiv url: http://arxiv.org/abs/2510.14257v1
- Date: Thu, 16 Oct 2025 03:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.69995
- Title: Synergistic Integration and Discrepancy Resolution of Contextualized Knowledge for Personalized Recommendation
- Title(参考訳): パーソナライズされたレコメンデーションのための文脈的知識の相乗的統合と不一致解決
- Authors: Lingyu Mu, Hao Deng, Haibo Xing, Kaican Lin, Zhitong Zhu, Yu Zhang, Xiaoyi Zeng, Zhengxiao Liu, Zheng Lin, Jinxin Hu,
- Abstract要約: ユーザ固有のコンテキスト知識の埋め込みを動的に構築するエンドツーエンドフレームワークであるCoCoを紹介する。
本手法は,適応的知識融合と矛盾分解モジュールによる意味的・行動的潜在次元の深い統合を実現する。
モジュラー設計とモデルに依存しないアーキテクチャにより、CoCoは次世代レコメンデーションシステムに汎用的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 16.83733237411492
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The integration of large language models (LLMs) into recommendation systems has revealed promising potential through their capacity to extract world knowledge for enhanced reasoning capabilities. However, current methodologies that adopt static schema-based prompting mechanisms encounter significant limitations: (1) they employ universal template structures that neglect the multi-faceted nature of user preference diversity; (2) they implement superficial alignment between semantic knowledge representations and behavioral feature spaces without achieving comprehensive latent space integration. To address these challenges, we introduce CoCo, an end-to-end framework that dynamically constructs user-specific contextual knowledge embeddings through a dual-mechanism approach. Our method realizes profound integration of semantic and behavioral latent dimensions via adaptive knowledge fusion and contradiction resolution modules. Experimental evaluations across diverse benchmark datasets and an enterprise-level e-commerce platform demonstrate CoCo's superiority, achieving a maximum 8.58% improvement over seven cutting-edge methods in recommendation accuracy. The framework's deployment on a production advertising system resulted in a 1.91% sales growth, validating its practical effectiveness. With its modular design and model-agnostic architecture, CoCo provides a versatile solution for next-generation recommendation systems requiring both knowledge-enhanced reasoning and personalized adaptation.
- Abstract(参考訳): 大規模言語モデル(LLM)のレコメンデーションシステムへの統合は、推論能力を高めるために世界知識を抽出する能力を通じて、有望なポテンシャルを明らかにしている。
しかし、静的なスキーマベースのプロンプト機構を採用した現在の手法では、(1)ユーザ嗜好の多面的な性質を無視した普遍的なテンプレート構造、(2)包括的な潜在空間の統合を達成せずに意味的知識表現と行動特徴空間間の表面的アライメントを実装している。
このような課題に対処するために,ユーザ固有のコンテキスト知識の埋め込みを動的に構築するエンドツーエンドフレームワークであるCoCoを紹介する。
本手法は,適応的知識融合と矛盾分解モジュールによる意味的・行動的潜在次元の深い統合を実現する。
さまざまなベンチマークデータセットとエンタープライズレベルのEコマースプラットフォームによる実験的評価は、CoCoの優位性を示し、推奨精度で7つの最先端メソッドよりも最大8.58%改善されている。
このフレームワークのプロダクション広告システムへの展開により、売上の1.91%が成長し、その実用性が検証された。
モジュラー設計とモデルに依存しないアーキテクチャにより、CoCoは知識強化推論とパーソナライズされた適応の両方を必要とする次世代レコメンデーションシステムに汎用的なソリューションを提供する。
関連論文リスト
- MARS: Optimizing Dual-System Deep Research via Multi-Agent Reinforcement Learning [82.14973479594367]
複雑な推論タスクのための大規模言語モデル(LLM)は、直感的で意図的な認知プロセスを橋渡しする革新的なアプローチを必要とする。
本稿では,Multi-Agent System for Deep ReSearch (MARS)を提案する。
論文 参考訳(メタデータ) (2025-10-06T15:42:55Z) - Choice Outweighs Effort: Facilitating Complementary Knowledge Fusion in Federated Learning via Re-calibration and Merit-discrimination [25.3144483276258]
FedMateは二元最適化を実装する方法である。
サーバ側では,サンプルサイズ,現在のパラメータ,将来予測の総合的な統合により,集約重みを調整した動的グローバルプロトタイプを構築している。
クライアント側では,有益性に基づく識別訓練を実現するために補完的な分類融合を導入し,コストを考慮した特徴伝達をモデル性能と通信効率のバランスに取り入れる。
論文 参考訳(メタデータ) (2025-08-25T12:18:25Z) - CHARM: Collaborative Harmonization across Arbitrary Modalities for Modality-agnostic Semantic Segmentation [44.48226146116737]
Modality-Agnostic Semantic (MaSS) は入力モダリティの任意の組み合わせにまたがる堅牢なシーン理解の実現を目的としている。
我々は、モダリティに特有な利点を保ちつつ、暗黙的にコンテンツをアライメントする新しい補完学習フレームワークであるCHARMを提案する。
論文 参考訳(メタデータ) (2025-08-05T04:10:51Z) - RecLLM-R1: A Two-Stage Training Paradigm with Reinforcement Learning and Chain-of-Thought v1 [20.92548890511589]
本稿では,Large Language Models(LLM)を利用したレコメンデーションフレームワークであるRecLLM-R1を紹介する。
RecLLM-R1は、精度、多様性、新規性など、さまざまな評価指標において、既存のベースラインメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2025-06-24T01:39:34Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - UNGER: Generative Recommendation with A Unified Code via Semantic and Collaborative Integration [36.48113842751375]
提案手法は,意味的および協調的な知識を,生成的推薦のための統一コードに統合する,UNGERという新しい手法を提案する。
定量化処理による情報損失を軽減するため,モダリティ内知識蒸留タスクを導入する。
論文 参考訳(メタデータ) (2025-02-10T09:08:37Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。