論文の概要: NEMO-4-PAYPAL: Leveraging NVIDIA's Nemo Framework for empowering PayPal's Commerce Agent
- arxiv url: http://arxiv.org/abs/2512.21578v1
- Date: Thu, 25 Dec 2025 08:47:32 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:05:09.520589
- Title: NEMO-4-PAYPAL: Leveraging NVIDIA's Nemo Framework for empowering PayPal's Commerce Agent
- Title(参考訳): NEMO-4-PAYPAL:PayPalのコマースエージェントを強化するためにNVIDIAのNemoフレームワークを活用する
- Authors: Ali Sahami, Sudhanshu Garg, Andrew Wang, Chaitanya Kulkarni, Farhad Farahani, Sean Yun-Shiuan Chuang, Jian Wan, Srinivasan Manoharan, Uma Kona, Nitin Sharma, Linsey Pang, Prakhar Mehrotra, Jessica Clark, Mark Moyou,
- Abstract要約: NEMO-4-PAYPALを利用したPayPalのコマースエージェントの開発と最適化について述べる。
エージェント性能を向上させるため,LLMモデルファインチューニングのためのNeMo Frameworkを利用した。
その結果, 微調整されたネモトロンSLMは, 検索成分の重要な性能問題を効果的に解決することを示した。
- 参考スコア(独自算出の注目度): 8.522421384862103
- License:
- Abstract: We present the development and optimization of PayPal's Commerce Agent, powered by NEMO-4-PAYPAL, a multi-agent system designed to revolutionize agentic commerce on the PayPal platform. Through our strategic partnership with NVIDIA, we leveraged the NeMo Framework for LLM model fine-tuning to enhance agent performance. Specifically, we optimized the Search and Discovery agent by replacing our base model with a fine-tuned Nemotron small language model (SLM). We conducted comprehensive experiments using the llama3.1-nemotron-nano-8B-v1 architecture, training LoRA-based models through systematic hyperparameter sweeps across learning rates, optimizers (Adam, AdamW), cosine annealing schedules, and LoRA ranks. Our contributions include: (1) the first application of NVIDIA's NeMo Framework to commerce-specific agent optimization, (2) LLM powered fine-tuning strategy for retrieval-focused commerce tasks, (3) demonstration of significant improvements in latency and cost while maintaining agent quality, and (4) a scalable framework for multi-agent system optimization in production e-commerce environments. Our results demonstrate that the fine-tuned Nemotron SLM effectively resolves the key performance issue in the retrieval component, which represents over 50\% of total agent response time, while maintaining or enhancing overall system performance.
- Abstract(参考訳): PayPalプラットフォーム上でのエージェントコマースに革命をもたらすように設計されたマルチエージェントシステムであるNEMO-4-PAYPALを利用したPayPalのコマースエージェントの開発と最適化について述べる。
NVIDIAとの戦略的パートナーシップを通じて、エージェントのパフォーマンスを向上させるために、LLMモデルの微調整にNeMo Frameworkを活用しました。
具体的には、ベースモデルを微調整されたネモトロン小言語モデル(SLM)に置き換えることで、検索と発見のエージェントを最適化した。
我々は、llama3.1-nemotron-nano-8B-v1アーキテクチャを用いて総合的な実験を行い、学習率、最適化器(Adam, AdamW)、コサインアニールスケジュール、LoRAランクを網羅してLoRAベースのモデルを訓練した。
当社のコントリビューションは,(1)NVIDIAのNeMo Frameworkの商取引特化エージェント最適化への最初の応用,(2)LLMによる検索中心の商取引タスクの微調整戦略,(3)エージェントの品質を維持しながら,レイテンシとコストの大幅な改善の実証,(4)プロダクションEコマース環境におけるマルチエージェントシステム最適化のためのスケーラブルなフレームワークである。
この結果から, 微調整されたネモトロンSLMは, システム全体の性能を維持・向上しつつ, 総エージェント応答時間の50%以上を占める検索成分の重要な性能問題を効果的に解決することを示した。
関連論文リスト
- Nemotron-Flash: Towards Latency-Optimal Hybrid Small Language Models [97.55009021098554]
本研究の目的は、SLMのリアルタイムレイテンシの主要な決定要因を特定し、SLMの設計とトレーニングのための一般化可能な原則と方法論を提供することである。
我々はNemotron-Flashと呼ばれるハイブリッドSLMの新たなファミリーを導入し、最先端SLMの精度・効率のフロンティアを大幅に向上させる。
論文 参考訳(メタデータ) (2025-11-24T08:46:36Z) - OmniNova:A General Multimodal Agent Framework [0.5439020425819]
特殊なツールを備えた大規模言語モデル(LLM)は、インテリジェントな自動化システムに新たな機会をもたらす。
OmniNovaはモジュール型のマルチエージェント自動化フレームワークで、言語モデルとWeb検索、クローリング、コード実行機能といった特殊なツールを組み合わせる。
論文 参考訳(メタデータ) (2025-03-25T19:21:01Z) - Optimizing Model Selection for Compound AI Systems [76.69936664916061]
本稿では,複合システムにおけるモデル選択のための効率的なフレームワークを提案する。
1つのモジュールを反復的に選択し、最も高いモジュールレベルのパフォーマンスを持つモデルを割り当てます。
すべてのモジュールで同じLLMを使用する場合と比較して、5%-70%の精度向上が期待できる。
論文 参考訳(メタデータ) (2025-02-20T18:36:25Z) - Patched MOA: optimizing inference for diverse software development tasks [1.14219428942199]
本稿では,大規模言語モデル(LLM)の性能を大幅に向上させる推論最適化手法であるPatched MOAを紹介する。
我々は3つの推論最適化アルゴリズム、Best of N、Mixture of Agents、Monte Carlo Tree Searchを評価した。
Patched MOAはより小型のモデルの性能を高め、より大型で高価なモデルを上回ることを実証しています。
論文 参考訳(メタデータ) (2024-07-26T05:34:34Z) - Agent-FLAN: Designing Data and Methods of Effective Agent Tuning for Large Language Models [56.00992369295851]
オープンソースのLarge Language Models(LLM)は、さまざまなNLPタスクで大きな成功を収めていますが、エージェントとして振る舞う場合、それでもAPIベースのモデルよりもはるかに劣っています。
本稿では,(1) エージェント学習コーパスを,(1) エージェント学習データの分布から大きくシフトするエージェント推論と,(2) エージェントタスクが必要とする能力に異なる学習速度を示すエージェント学習コーパスと,(3) 幻覚を導入することでエージェント能力を改善する際の副作用について述べる。
本稿では,エージェントのためのFLANモデルを効果的に構築するためのエージェントFLANを提案する。
論文 参考訳(メタデータ) (2024-03-19T16:26:10Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。