論文の概要: To Start Up a Start-Up$-$Embedding Strategic Demand Development in Operational On-Demand Fulfillment via Reinforcement Learning with Information Shaping
- arxiv url: http://arxiv.org/abs/2504.05633v1
- Date: Tue, 08 Apr 2025 03:25:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:11.576386
- Title: To Start Up a Start-Up$-$Embedding Strategic Demand Development in Operational On-Demand Fulfillment via Reinforcement Learning with Information Shaping
- Title(参考訳): 情報整形による強化学習による運用オン・デマンド・フルフィルメントの起業支援戦略開発
- Authors: Xinwei Chen, Marlin W. Ulmer, Barrett W. Thomas,
- Abstract要約: 本稿では,戦略的需要開発をリアルタイム・フルフィルメント・オペレーションに統合するための2段階のアプローチを提案する。
まず、スタイリングされた問題に対する最適なアロケーション決定に関する分析的な洞察を導出する。
第二に、これらの知見を用いて、実時間遂行のための強化学習戦略のトレーニングデータを形成する。
- 参考スコア(独自算出の注目度): 0.4891997124394864
- License:
- Abstract: The last few years have witnessed rapid growth in the on-demand delivery market, with many start-ups entering the field. However, not all of these start-ups have succeeded due to various reasons, among others, not being able to establish a large enough customer base. In this paper, we address this problem that many on-demand transportation start-ups face: how to establish themselves in a new market. When starting, such companies often have limited fleet resources to serve demand across a city. Depending on the use of the fleet, varying service quality is observed in different areas of the city, and in turn, the service quality impacts the respective growth of demand in each area. Thus, operational fulfillment decisions drive the longer-term demand development. To integrate strategic demand development into real-time fulfillment operations, we propose a two-step approach. First, we derive analytical insights into optimal allocation decisions for a stylized problem. Second, we use these insights to shape the training data of a reinforcement learning strategy for operational real-time fulfillment. Our experiments demonstrate that combining operational efficiency with long-term strategic planning is highly advantageous. Further, we show that the careful shaping of training data is essential for the successful development of demand.
- Abstract(参考訳): ここ数年、オンデマンドデリバリー市場は急速に成長しており、多くのスタートアップがこの分野に参入している。
しかし、これらのスタートアップのすべてが様々な理由で成功しているわけではない。
本稿では,多くのオンデマンド交通スタートアップが直面するこの問題に対処する。
起業時、こうした会社は都市全体の需要を満たすための限られた艦隊資源を持っていることが多い。
艦隊の使用により、市内の様々な地域で様々なサービス品質が観察され、サービス品質が各地域の需要の伸びに影響を与える。
したがって、運用上の満足度の決定は、長期的な需要の発達を促す。
戦略的需要開発をリアルタイム・フルフィルメント・オペレーションに統合するために,我々は2段階のアプローチを提案する。
まず、スタイリングされた問題に対する最適なアロケーション決定に関する分析的な洞察を導出する。
第二に、これらの知見を用いて、実時間遂行のための強化学習戦略のトレーニングデータを形成する。
本実験は,運用効率と長期戦略計画の併用が極めて有利であることを示す。
さらに、トレーニングデータの慎重な形成が需要の発達に欠かせないことを示す。
関連論文リスト
- Real-Time Integrated Dispatching and Idle Fleet Steering with Deep Reinforcement Learning for A Meal Delivery Platform [0.0]
本研究は,食事提供プラットフォームにおけるリアルタイム注文派遣とアイドルクーリエステアリングの問題を解決することを目的としている。
強化学習(RL)に基づく戦略的二重制御フレームワークを提案する。
宅配業者間での配送効率と作業負荷分布の公平性が改善されている。
論文 参考訳(メタデータ) (2025-01-10T09:15:40Z) - Collaborative Evolving Strategy for Automatic Data-Centric Development [17.962373755266068]
本稿では,自動データ中心開発(AD2)タスクを紹介する。
ドメインエキスパートのようなタスクスケジューリングと実装能力を必要とする、その中核的な課題を概説している。
本稿では,Retrieval による協調的知恵強化進化という戦略を取り入れた自律エージェントを提案する。
論文 参考訳(メタデータ) (2024-07-26T12:16:47Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Human-Timescale Adaptation in an Open-Ended Task Space [56.55530165036327]
大規模にRLエージェントを訓練することで、オープンエンドの新規な3D問題に人間と同じくらい早く適応できる一般的なコンテキスト内学習アルゴリズムが実現可能であることを示す。
我々の研究は、より大規模で適応的なRLエージェントの基礎を築いた。
論文 参考訳(メタデータ) (2023-01-18T15:39:21Z) - Fleet Rebalancing for Expanding Shared e-Mobility Systems: A Multi-agent
Deep Reinforcement Learning Approach [17.193480676611358]
共有e-mobilityシステムの運用における重要な課題は、フリートリバランシングである。
まず,実世界のe-mobilityシステムから収集したリッチなデータ集合を1年間調査する。
学習した知識により、EV共有の重要な操作詳細を抽象化できる高忠実度シミュレータを設計する。
次に, マルチエージェント強化学習(MARL)問題として, 連続的拡張下での共有e-mobilityシステムの再バランスタスクをモデル化する。
論文 参考訳(メタデータ) (2022-11-11T11:25:30Z) - Spatio-temporal Incentives Optimization for Ride-hailing Services with
Offline Deep Reinforcement Learning [7.668735431419396]
本稿では,輸送資源の利用と顧客満足度を向上させるため,需要側のオフライン強化学習手法を提案する。
我々は、時間と場所の異なる価値を学習するための深層時間学習法を採用し、その上で、乗客が需要分布を調整し、システムの供給と需要のバランスをとるように、乗車要求をインセンティブ化する。
論文 参考訳(メタデータ) (2022-11-06T23:54:38Z) - Concepts and Algorithms for Agent-based Decentralized and Integrated
Scheduling of Production and Auxiliary Processes [78.120734120667]
本稿ではエージェントベースの分散型統合スケジューリング手法について述べる。
要求の一部は、線形にスケールする通信アーキテクチャを開発することである。
このアプローチは、工業的要件に基づいた例を使って説明されます。
論文 参考訳(メタデータ) (2022-05-06T18:44:29Z) - INTERN: A New Learning Paradigm Towards General Vision [117.3343347061931]
我々はInterNという新しい学習パラダイムを開発した。
複数の段階の複数のソースからの監視信号を用いて学習することにより、トレーニング対象のモデルは強力な一般化性を生み出す。
ほとんどの場合、ターゲットドメインのトレーニングデータの10%しか適応していないモデルが、完全なデータセットでトレーニングされたトレーニングデータよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T18:42:50Z) - Where the Action is: Let's make Reinforcement Learning for Stochastic
Dynamic Vehicle Routing Problems work! [0.0]
リアルタイム、インスタントモビリティ、デリバリーサービスの需要が増加している。
動的車両ルーティング問題(SDVRP)には、予測リアルタイムルーティングアクションが必要です。
sdvrpsの解決には,両コミュニティの共同作業が必要である。
論文 参考訳(メタデータ) (2021-02-28T13:26:35Z) - Latent Skill Planning for Exploration and Transfer [49.25525932162891]
本稿では,この2つの手法を1つの強化学習エージェントに統合する方法について検討する。
テスト時の高速適応に部分的償却の考え方を活用する。
私たちは、困難なロコモーションタスクのスイートでデザイン決定のメリットを実演しています。
論文 参考訳(メタデータ) (2020-11-27T18:40:03Z) - Planning to Explore via Self-Supervised World Models [120.31359262226758]
Plan2Exploreは自己監督型強化学習エージェントである。
我々は、自己監督型探索と、新しいタスクへの迅速な適応に対する新しいアプローチを提案する。
Plan2Exploreは、訓練の監督やタスク固有の相互作用がなければ、自己監督型の探査方法よりも優れている。
論文 参考訳(メタデータ) (2020-05-12T17:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。