論文の概要: ProductResearch: Training E-Commerce Deep Research Agents via Multi-Agent Synthetic Trajectory Distillation
- arxiv url: http://arxiv.org/abs/2602.23716v1
- Date: Fri, 27 Feb 2026 06:30:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.279062
- Title: ProductResearch: Training E-Commerce Deep Research Agents via Multi-Agent Synthetic Trajectory Distillation
- Title(参考訳): ProductResearch:マルチエージェント合成軌道蒸留によるEコマースディープリサーチエージェントの育成
- Authors: Jiangyuan Wang, Kejun Xiao, Huaipeng Zhao, Tao Luo, Xiaoyi Zeng,
- Abstract要約: LLM(Large Language Model)ベースのエージェントは、eコマースの対話型ショッピングを約束する。
既存の実装には、複雑な製品研究に必要な相互作用の深さとコンテキストの幅が欠けている。
本稿では,堅牢なeコマースショッピングエージェントを訓練するための多エージェントフレームワークであるProductResearchを提案する。
- 参考スコア(独自算出の注目度): 6.60575487765583
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Model (LLM)-based agents show promise for e-commerce conversational shopping, yet existing implementations lack the interaction depth and contextual breadth required for complex product research. Meanwhile, the Deep Research paradigm, despite advancing information synthesis in web search, suffers from domain gaps when transferred to e-commerce. We propose ProductResearch, a multi-agent framework that synthesizes high-fidelity, long-horizon tool-use trajectories for training robust e-commerce shopping agents. The framework employs a User Agent to infer nuanced shopping intents from behavioral histories, and a Supervisor Agent that orchestrates iterative collaboration with a Research Agent to generate synthetic trajectories culminating in comprehensive, insightful product research reports. These trajectories are rigorously filtered and distilled through a reflective internalization process that consolidates multi-agent supervisory interactions into coherent single-role training examples, enabling effective fine-tuning of LLM agents for complex shopping inquiries. Extensive experiments show that a compact MoE model fine-tuned on our synthetic data achieves substantial improvements over its base model in response comprehensiveness, research depth, and user-perceived utility, approaching the performance of frontier proprietary deep research systems and establishing multi-agent synthetic trajectory training as an effective and scalable paradigm for enhancing LLM-based shopping assistance.
- Abstract(参考訳): LLM(Large Language Model)ベースのエージェントは、eコマースの対話型ショッピングを約束するが、既存の実装には複雑な製品研究に必要な相互作用深さとコンテキスト幅が欠けている。
一方、Deep Researchのパラダイムは、Web検索における情報合成の進歩にもかかわらず、eコマースに移行した際のドメインギャップに悩まされている。
本稿では,堅牢なeコマースショッピングエージェントを訓練するための多エージェントフレームワークであるProductResearchを提案する。
このフレームワークは、行動履歴から不明瞭なショッピング意図を推測するユーザエージェントと、総合的で洞察に富んだ製品調査レポートに終わる合成軌道を生成するために、リサーチエージェントと反復的なコラボレーションを編成するスーパーバイザエージェントを用いる。
これらのトラジェクトリは、多エージェントの監督相互作用をコヒーレントな単一ロールトレーニング例に統合する反射的内部化プロセスを通じて厳密にフィルタリングされ、複雑なショッピング問い合わせのためのLLMエージェントの効果的な微調整を可能にする。
総合的な実験により, 総合性, 研究深度, ユーザ認識ユーティリティに応答して, ベースモデルよりも大幅に改良され, 最前線の独自深層研究システムの性能にアプローチし, マルチエージェント合成軌道訓練を, LLMによるショッピング支援の効果的かつスケーラブルなパラダイムとして確立した。
関連論文リスト
- O-Researcher: An Open Ended Deep Research Model via Multi-Agent Distillation and Agentic RL [28.10102994309489]
本稿では,高度で研究段階の指導データの自動合成のための新しいフレームワークを提案する。
当社のアプローチは、複雑なツール統合推論をシミュレートするマルチエージェントワークフローに重点を置いています。
そこで我々は,教師付き微調整と新たな強化学習を融合した2段階学習戦略を開発した。
論文 参考訳(メタデータ) (2026-01-07T09:31:10Z) - Interact-RAG: Reason and Interact with the Corpus, Beyond Black-Box Retrieval [49.85856484781787]
本稿では,ILMエージェントを検索プロセスのアクティブマニピュレータに高める新しいパラダイムであるInteract-RAGを紹介する。
我々は、ゼロショット実行と相互作用軌跡の合成を可能にする推論強化ワークフローを開発する。
6つのベンチマーク実験により、Interact-RAGは他の高度な手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-10-31T15:48:43Z) - WebResearcher: Unleashing unbounded reasoning capability in Long-Horizon Agents [72.28593628378991]
WebResearcherは、マルコフ決定プロセスとしてディープリサーチを再構築する反復的なディープリサーチパラダイムである。
WebResearcherは最先端のパフォーマンスを実現し、フロンティアのプロプライエタリシステムを超えています。
論文 参考訳(メタデータ) (2025-09-16T17:57:17Z) - ToolACE-MT: Non-Autoregressive Generation for Agentic Multi-Turn Interaction [84.90394416593624]
大規模言語モデル(LLM)によるエージェント的タスク解決には,多ターン・マルチステップインタラクションが必要である。
既存のシミュレーションベースのデータ生成手法は、複数のエージェント間のコストのかかる自己回帰的相互作用に大きく依存している。
本稿では,高品質なマルチターンエージェント対話を構築するための非自己回帰反復生成フレームワークであるToolACE-MTを提案する。
論文 参考訳(メタデータ) (2025-08-18T07:38:23Z) - From Web Search towards Agentic Deep Research: Incentivizing Search with Reasoning Agents [96.65646344634524]
推論とエージェント能力を備えた大規模言語モデル(LLM)は、エージェントディープリサーチ(Agenic Deep Research)と呼ばれる新しいパラダイムを取り入れている。
静的なWeb検索から,計画,探索,学習を行う対話型エージェントベースのシステムへの進化を辿ります。
我々はエージェントディープリサーチが既存のアプローチを著しく上回るだけでなく、将来の情報探索において支配的なパラダイムになることを実証する。
論文 参考訳(メタデータ) (2025-06-23T17:27:19Z) - Deep Research Agents: A Systematic Examination And Roadmap [109.53237992384872]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - Agentic Reasoning: A Streamlined Framework for Enhancing LLM Reasoning with Agentic Tools [19.70178343422698]
本稿では,外部ツール利用エージェントを統合することで,大規模言語モデル(LLM)推論を強化するフレームワークであるAgentic Reasoningを紹介する。
私たちのフレームワークにおける重要な革新はMind-Mapエージェントです。
DeepSeek-R1にデプロイすると、パブリックモデル間で新しいSOTA(State-of-the-art)を実現する。
論文 参考訳(メタデータ) (2025-02-07T04:08:46Z) - Multi-Agent Sampling: Scaling Inference Compute for Data Synthesis with Tree Search-Based Agentic Collaboration [81.45763823762682]
本研究の目的は,マルチエージェントサンプリングによるデータ合成の問題を調べることでギャップを埋めることである。
逐次サンプリングプロセス中にワークフローが反復的に進化する木探索に基づくオーケストレーションエージェント(TOA)を紹介する。
アライメント、機械翻訳、数学的推論に関する実験は、マルチエージェントサンプリングが推論計算スケールとしてシングルエージェントサンプリングを著しく上回ることを示した。
論文 参考訳(メタデータ) (2024-12-22T15:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。