論文の概要: OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System
- arxiv url: http://arxiv.org/abs/2509.18091v1
- Date: Mon, 22 Sep 2025 17:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.558487
- Title: OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System
- Title(参考訳): OnePiece:産業用カスケードランキングシステムにコンテキストエンジニアリングと推論を導入する
- Authors: Sunhao Dai, Jiakai Tang, Jiahua Wu, Kun Wang, Yuxuan Zhu, Bingjun Chen, Bangyang Hong, Yu Zhao, Cong Fu, Kangle Wu, Yabo Ni, Anxiang Zeng, Wenjie Wang, Xu Chen, Jun Xu, See-Kiong Ng,
- Abstract要約: OnePieceは、LLMスタイルのコンテキストエンジニアリングと推論を、検索モデルとランキングモデルの両方にシームレスに統合する統合フレームワークである。
OnePieceは、Shopeeの主要なパーソナライズされた検索シナリオにデプロイされ、さまざまな主要なビジネス指標で一貫したオンラインゲインを実現している。
- 参考スコア(独自算出の注目度): 61.12400636463362
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the growing interest in replicating the scaled success of large language models (LLMs) in industrial search and recommender systems, most existing industrial efforts remain limited to transplanting Transformer architectures, which bring only incremental improvements over strong Deep Learning Recommendation Models (DLRMs). From a first principle perspective, the breakthroughs of LLMs stem not only from their architectures but also from two complementary mechanisms: context engineering, which enriches raw input queries with contextual cues to better elicit model capabilities, and multi-step reasoning, which iteratively refines model outputs through intermediate reasoning paths. However, these two mechanisms and their potential to unlock substantial improvements remain largely underexplored in industrial ranking systems. In this paper, we propose OnePiece, a unified framework that seamlessly integrates LLM-style context engineering and reasoning into both retrieval and ranking models of industrial cascaded pipelines. OnePiece is built on a pure Transformer backbone and further introduces three key innovations: (1) structured context engineering, which augments interaction history with preference and scenario signals and unifies them into a structured tokenized input sequence for both retrieval and ranking; (2) block-wise latent reasoning, which equips the model with multi-step refinement of representations and scales reasoning bandwidth via block size; (3) progressive multi-task training, which leverages user feedback chains to effectively supervise reasoning steps during training. OnePiece has been deployed in the main personalized search scenario of Shopee and achieves consistent online gains across different key business metrics, including over $+2\%$ GMV/UU and a $+2.90\%$ increase in advertising revenue.
- Abstract(参考訳): 産業検索やレコメンデーションシステムにおける大規模言語モデル(LLM)の成功を再現することへの関心が高まっているが、既存の産業努力の多くはトランスフォーマーアーキテクチャの移植に限られており、強力なディープラーニング勧告モデル(DLRM)よりも漸進的に改善されている。
第一原理の観点からは、LLMのブレークスルーはアーキテクチャだけでなく、コンテキストエンジニアリング(コンテキストエンジニアリング)という2つの補完的なメカニズムから成り立っている。
しかし、これらの2つのメカニズムとその実質的な改善を解き放つ可能性の大部分は、産業のランキングシステムでは未熟である。
本稿では,産業用カスケードパイプラインの検索とランキングモデルにLLMスタイルのコンテキストエンジニアリングと推論をシームレスに統合する統一フレームワークであるOnePieceを提案する。
OnePieceは、純粋なTransformerのバックボーン上に構築され、(1)好みとシナリオ信号とのインタラクション履歴を強化し、それらを検索とランク付けの両方のために構造化されたトークン化された入力シーケンスに統一する構造化コンテキストエンジニアリング、(2)表現の多段階的な洗練とブロックサイズによる帯域幅の推論を行うブロックワイド遅延推論、(3)ユーザフィードバックチェーンを活用してトレーニング中の推論ステップを効果的に監視するプログレッシブマルチタスクトレーニングの3つの重要なイノベーションを紹介する。
OnePieceはShopeeの主要なパーソナライズされた検索シナリオに展開され、GMV/UUの$+2\%、広告収入の$+2.90\%などの主要なビジネス指標で一貫したオンラインゲインを実現している。
関連論文リスト
- Large VLM-based Vision-Language-Action Models for Robotic Manipulation: A Survey [45.10095869091538]
膨大な画像テキストデータセットに基づいて事前訓練されたLarge Vision-Language Models (VLM) 上に構築されたVLAモデルが、トランスフォーメーションパラダイムとして登場した。
この調査は、ロボット操作のための大規模なVLMベースのVLAモデルの、最初の体系的で分類指向のレビューを提供する。
論文 参考訳(メタデータ) (2025-08-18T16:45:48Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - Agent-Centric Projection of Prompting Techniques and Implications for Synthetic Training Data for Large Language Models [0.8879149917735942]
本稿では,Large Language Models(LLMs)における線形コンテキスト(連続的な相互作用の連続配列)と非線形コンテキスト(分岐やマルチパス)の概念を紹介し,解説する。
これらの概念は、プロンプト戦略とマルチエージェントシステムとの深い関係を明らかにするフレームワークであるプロンプトテクニックのエージェント中心のプロジェクションの開発を可能にする。
論文 参考訳(メタデータ) (2025-01-14T03:26:43Z) - SMLE: Safe Machine Learning via Embedded Overapproximation [4.129133569151574]
本研究は,デザイナ・ちょうせん特性を満たすことが保証される識別可能なMLモデルを訓練する作業について考察する。
現代のニューラルモデルにおけるコンプライアンスの厳格な検証と実施という計算複雑性のため、これは非常に難しい。
1)保守的なセマンティクスによる効率的な検証を可能にする汎用的,シンプルなアーキテクチャ。
回帰における線形不等式によって定義される特性と、多重ラベル分類における相互排他的クラスに対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-09-30T17:19:57Z) - Towards General Industrial Intelligence: A Survey of Continual Large Models in Industrial IoT [25.16997700703974]
本調査では,大規模モデル(LM)とのIIoT統合とその産業環境への応用について検討する。
我々は,言語ベース,視覚ベース,時系列,マルチモーダルモデルという,産業用LMの4つの主要なタイプに注目した。
IIoTが豊富な多様なデータリソースをどのように提供するかを分析し、LMのトレーニングと微調整をサポートする。
論文 参考訳(メタデータ) (2024-09-02T12:35:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。