論文の概要: ReaSeq: Unleashing World Knowledge via Reasoning for Sequential Modeling
- arxiv url: http://arxiv.org/abs/2512.21257v1
- Date: Wed, 24 Dec 2025 16:06:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.824856
- Title: ReaSeq: Unleashing World Knowledge via Reasoning for Sequential Modeling
- Title(参考訳): ReaSeq: シークエンシャルモデリングのための推論による世界知識の開放
- Authors: Chuan Wang, Gaoming Yang, Han Wu, Jiakai Tang, Jiahao Yu, Jian Wu, Jianwu Hu, Junjun Zheng, Shuwen Xiao, Yeqiu Yang, Yuning Jiang, Ahjol Nurlanbek, Binbin Cao, Bo Zheng, Fangmei Zhu, Gaoming Zhou, Huimin Yi, Huiping Chu, Jin Huang, Jinzhe Shan, Kenan Cui, Longbin Li, Silu Zhou, Wen Chen, Xia Ming, Xiang Gao, Xin Yao, Xingyu Wen, Yan Zhang, Yiwen Hu, Yulin Wang, Ziheng Bao, Zongyuan Wu,
- Abstract要約: 産業推薦システムはログ駆動のパラダイムの下で2つの基本的な制限に直面している。
大規模言語モデルにおける世界知識を活用する推論強化フレームワークであるReaSeqを紹介する。
TaobaoのランキングシステムにReaSeqをデプロイします。
- 参考スコア(独自算出の注目度): 38.186231140378844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial recommender systems face two fundamental limitations under the log-driven paradigm: (1) knowledge poverty in ID-based item representations that causes brittle interest modeling under data sparsity, and (2) systemic blindness to beyond-log user interests that constrains model performance within platform boundaries. These limitations stem from an over-reliance on shallow interaction statistics and close-looped feedback while neglecting the rich world knowledge about product semantics and cross-domain behavioral patterns that Large Language Models have learned from vast corpora. To address these challenges, we introduce ReaSeq, a reasoning-enhanced framework that leverages world knowledge in Large Language Models to address both limitations through explicit and implicit reasoning. Specifically, ReaSeq employs explicit Chain-of-Thought reasoning via multi-agent collaboration to distill structured product knowledge into semantically enriched item representations, and latent reasoning via Diffusion Large Language Models to infer plausible beyond-log behaviors. Deployed on Taobao's ranking system serving hundreds of millions of users, ReaSeq achieves substantial gains: >6.0% in IPV and CTR, >2.9% in Orders, and >2.5% in GMV, validating the effectiveness of world-knowledge-enhanced reasoning over purely log-driven approaches.
- Abstract(参考訳): 産業レコメンデータシステムでは,(1)データ空間における脆弱な利害モデリングを引き起こすIDベースの項目表現における知識の欠如,(2)プラットフォーム境界内でのパフォーマンスをモデル化する,ログを越えたユーザの関心へのシステム的盲点,という2つの基本的制約に直面している。
これらの制限は、大きな言語モデルが巨大なコーパスから学んだ製品セマンティクスやドメイン間の振舞いパターンに関する豊富な知識を無視しながら、浅い相互作用統計とクローズループのフィードバックを過度に信頼することに由来する。
これらの課題に対処するため、我々はReaSeqを紹介した。ReaSeqは、大規模言語モデルにおける世界の知識を活用し、明示的および暗黙的な推論を通じて両方の制限に対処する推論強化フレームワークである。
具体的には、ReaSeqはマルチエージェントのコラボレーションを通じて、構造化された製品知識を意味的にリッチなアイテム表現に蒸留し、拡散大言語モデルを介して潜在的推論を行ない、論理を超越した振る舞いを推測する。
数億のユーザを対象としたTaobaoのランキングシステム上に展開されたReaSeqは、IDVとCTRで6.0%、注文で2.9%、GMVで2.5%という大きな利益を達成し、純粋にログ駆動のアプローチに対する世界知識の強化された推論の有効性を検証している。
関連論文リスト
- ADORE: Autonomous Domain-Oriented Relevance Engine for E-commerce [15.317195529037319]
電子商取引検索における関連モデリングはセマンティック・ギャップによって依然として課題が残されている。
3つのイノベーションを相乗化する自己維持型フレームワークであるADOREを提案する。
このフレームワークは、産業アプリケーションにおけるリソース効率、認知的に整合した関連モデリングのための新しいパラダイムを確立する。
論文 参考訳(メタデータ) (2025-12-02T09:25:13Z) - Large Language Model Enhanced Graph Invariant Contrastive Learning for Out-of-Distribution Recommendation [41.17308511272247]
InvGCLLMは、データ駆動モデルと知識駆動LLMの強みを統合する革新的な因果学習フレームワークである。
InvGCLLMは配布外リコメンデーションの大幅な改善を実現し、一貫して最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2025-11-23T04:24:58Z) - OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System [61.12400636463362]
OnePieceは、LLMスタイルのコンテキストエンジニアリングと推論を、検索モデルとランキングモデルの両方にシームレスに統合する統合フレームワークである。
OnePieceは、Shopeeの主要なパーソナライズされた検索シナリオにデプロイされ、さまざまな主要なビジネス指標で一貫したオンラインゲインを実現している。
論文 参考訳(メタデータ) (2025-09-22T17:59:07Z) - KG-TRACES: Enhancing Large Language Models with Knowledge Graph-constrained Trajectory Reasoning and Attribution Supervision [22.21718913427443]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な進歩を遂げてきたが、複雑な推論問題におけるそれらの性能は、説明責任と信頼性の欠如によって妨げられている。
我々は,LLMの推論能力を高めるために,知識グラフ制約トラジェクトリ推論属性と連鎖説明スーパービジョン(KG-TRACES)を提案する。
KG-TRACES は,(1) 記号関係経路の予測,(2) 完全三重レベル推論経路の予測,(3) 帰属対応推論過程の推論経路の予測を共同で行う。
論文 参考訳(メタデータ) (2025-06-01T02:20:45Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - Graph-based Unsupervised Disentangled Representation Learning via Multimodal Large Language Models [42.17166746027585]
複素データ内の因子化属性とその相互関係を学習するための双方向重み付きグラフベースフレームワークを提案する。
具体的には、グラフの初期ノードとして要素を抽出する$beta$-VAEベースのモジュールを提案する。
これらの相補的加群を統合することで、我々は細粒度、実用性、教師なしの絡み合いをうまく達成できる。
論文 参考訳(メタデータ) (2024-07-26T15:32:21Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。