論文の概要: DiMA: An LLM-Powered Ride-Hailing Assistant at DiDi
- arxiv url: http://arxiv.org/abs/2503.04768v1
- Date: Wed, 12 Feb 2025 10:33:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 10:18:21.114698
- Title: DiMA: An LLM-Powered Ride-Hailing Assistant at DiDi
- Title(参考訳): DiMA: DiDiのLCMライディングアシスタント
- Authors: Yansong Ning, Shuowei Cai, Wei Li, Jun Fang, Naiqiang Tan, Hua Chai, Hao Liu,
- Abstract要約: DiDi、Uber、Lyftといったオンデマンド配車サービスは、都会の交通手段にマッチせず、利便性と柔軟性を提供している。
本稿では,DiDi Chuxing における LLM を利用した配車支援システム DiMA について紹介する。
私たちの目標は、シームレスな配車サービスを提供することです。
- 参考スコア(独自算出の注目度): 17.153420862088335
- License:
- Abstract: On-demand ride-hailing services like DiDi, Uber, and Lyft have transformed urban transportation, offering unmatched convenience and flexibility. In this paper, we introduce DiMA, an LLM-powered ride-hailing assistant deployed in DiDi Chuxing. Its goal is to provide seamless ride-hailing services and beyond through a natural and efficient conversational interface under dynamic and complex spatiotemporal urban contexts. To achieve this, we propose a spatiotemporal-aware order planning module that leverages external tools for precise spatiotemporal reasoning and progressive order planning. Additionally, we develop a cost-effective dialogue system that integrates multi-type dialog repliers with cost-aware LLM configurations to handle diverse conversation goals and trade-off response quality and latency. Furthermore, we introduce a continual fine-tuning scheme that utilizes real-world interactions and simulated dialogues to align the assistant's behavior with human preferred decision-making processes. Since its deployment in the DiDi application, DiMA has demonstrated exceptional performance, achieving 93% accuracy in order planning and 92% in response generation during real-world interactions. Offline experiments further validate DiMA capabilities, showing improvements of up to 70.23% in order planning and 321.27% in response generation compared to three state-of-the-art agent frameworks, while reducing latency by $0.72\times$ to $5.47\times$. These results establish DiMA as an effective, efficient, and intelligent mobile assistant for ride-hailing services.
- Abstract(参考訳): DiDi、Uber、Lyftなどのオンデマンド配車サービスは都市交通を変革し、相応の利便性と柔軟性を提供している。
本稿では,DiDi Chuxingに導入したLCMを利用した配車アシスタントであるDiMAを紹介する。
そのゴールは、シームレスな配車サービスを提供することであり、ダイナミックで複雑な時空間の都市環境下で、自然で効率的な会話インターフェースを提供することである。
そこで本稿では,正確な時空間推論とプログレッシブ順序計画のために外部ツールを活用する時空間対応の順序計画モジュールを提案する。
さらに,多種多様な対話目標とトレードオフ応答品質とレイテンシを扱うために,多型対話レプライとLLM構成を統合したコスト効率な対話システムを開発した。
さらに,実世界のインタラクションとシミュレートされた対話を利用して,人間の好みの意思決定プロセスとアシスタントの動作を一致させる連続的な微調整手法を提案する。
DiDiアプリケーションへのデプロイ以来、DiMAは例外的な性能を示し、注文計画における93%の精度、実世界のインタラクションにおけるレスポンス生成における92%の精度を実現している。
オフライン実験はさらにDiMA機能を検証し、オーダープランニングの最大70.23%、レスポンス生成の321.27%を3つの最先端エージェントフレームワークと比較し、レイテンシを0.72\times$から5.47\times$に下げた。
これらの結果は、DiMAを配車サービスのための効率的、効率的、インテリジェントなモバイルアシスタントとして確立する。
関連論文リスト
- Flow-of-Options: Diversified and Improved LLM Reasoning by Thinking Through Options [1.2289361708127877]
Flow-of-Options(FoO)は、Large Language Models(LLM)の固有のバイアスに対処するように設計されている。
我々のフレームワークは最先端のベースラインを上回り、標準データサイエンスタスクで38.2%から69.2%の改善を達成した。
全体的な運用コストはタスクあたり1ドル以下なので、当社のフレームワークはコストに敏感なアプリケーションに適しています。
論文 参考訳(メタデータ) (2025-02-18T15:11:46Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Self-Regulation and Requesting Interventions [63.5863047447313]
介入要求のための"helper"ポリシーをトレーニングするオフラインフレームワークを提案する。
PRMによる最適介入タイミングを判定し,これらのラベル付き軌道上でヘルパーモデルを訓練する。
このオフラインアプローチは、トレーニング中のコストのかかる介入コールを大幅に削減する。
論文 参考訳(メタデータ) (2025-02-07T00:06:17Z) - Distilling Multi-modal Large Language Models for Autonomous Driving [64.63127269187814]
近年のエンド・ツー・エンドの自動運転システムは,大規模言語モデル(LLM)をプランナーとして活用し,レアイベントに対する一般化性を向上させる。
我々は,LLMの世界の知識を活用しつつ,LLMフリー(あるいはビジョンベース)プランナの効率を維持するエンド・ツー・エンドの自動運転システムであるDiMAを提案する。
DiMAを用いたトレーニングでは、L2軌道誤差が37%減少し、ビジョンベースプランナーの衝突速度が80%低下し、ロングテールシナリオでは44%軌道誤差が減少する。
論文 参考訳(メタデータ) (2025-01-16T18:59:53Z) - Enhancing LLMs for Power System Simulations: A Feedback-driven Multi-agent Framework [1.4255659581428337]
電力系統のシミュレーションを管理するためのフィードバック駆動型マルチエージェントフレームワークを提案する。
このフレームワークは、DalineとMATPOWERの69種類のタスクでそれぞれ93.13%と96.85%の成功率を達成した。
また、高速で費用対効果の高いタスク実行をサポートし、トークンの平均コスト0.014 USDで各シミュレーションを約30秒で完了する。
論文 参考訳(メタデータ) (2024-11-21T19:01:07Z) - MARCO: Multi-Agent Real-time Chat Orchestration [6.7741570640544415]
LLMを用いたタスク自動化のためのマルチエージェントリアルタイムチャットオーケストレーションフレームワークであるMARCOを提案する。
MARCOは複雑なマルチステップタスク実行にLLMを使用する上で重要な課題に対処する。
我々は、デジタルレストランサービスプラットフォームの会話におけるタスク実行における、94.48%と92.74%の精度で、MARCOの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-10-29T06:42:27Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - Agent Q: Advanced Reasoning and Learning for Autonomous AI Agents [44.34340798542]
大きな言語モデル(LLM)は、複雑な推論を必要とする自然言語タスクにおいて顕著な能力を示している。
静的データセットに対する従来の教師付き事前トレーニングは、自律的なエージェント機能を実現するには不十分である。
本稿では,モンテカルロ木探索(MCTS)を自己批判機構と組み合わせ,エージェント間相互作用を反復的に微調整するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T20:52:13Z) - AIMDiT: Modality Augmentation and Interaction via Multimodal Dimension Transformation for Emotion Recognition in Conversations [57.99479708224221]
AIMDiTと呼ばれる新しいフレームワークを提案し、深い特徴のマルチモーダル融合の問題を解決する。
公開ベンチマークデータセットMELDでAIMDiTフレームワークを使用して行った実験では、Acc-7とw-F1メトリクスの2.34%と2.87%の改善が明らかにされた。
論文 参考訳(メタデータ) (2024-04-12T11:31:18Z) - Duplex Conversation: Towards Human-like Interaction in Spoken Dialogue
System [120.70726465994781]
マルチモーダル音声対話システムにより、電話ベースのエージェントが、人間のような顧客と対話できる。
製品で学んだ教訓を共有するために、Conversation Duplex Alibabaのインテリジェントなカスタマサービスをデプロイしています。
オンラインA/B実験は,提案システムにおいて応答遅延を50%低減できることを示した。
論文 参考訳(メタデータ) (2022-05-30T12:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。