論文の概要: Learning Dynamic Selection and Pricing of Out-of-Home Deliveries
- arxiv url: http://arxiv.org/abs/2311.13983v3
- Date: Wed, 30 Oct 2024 13:56:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:24:39.571015
- Title: Learning Dynamic Selection and Pricing of Out-of-Home Deliveries
- Title(参考訳): 宅配便の動的選択と価格の学習
- Authors: Fabian Akkerman, Peter Dieter, Martijn Mes,
- Abstract要約: 本稿では、畳み込みニューラルネットワークへの入力として、新しい時空間状態符号化を用いたアルゴリズムパイプラインであるOOH(DSPO)の動的選択と価格設定を提案する。
実世界のデータによって導かれた我々の広範な数値研究により、DSPOはOOH位置のない状況と比較して19.9%のコストを節約できることが明らかとなった。
我々は、OOHデリバリーのダイナミクスと価格戦略に影響された顧客の行動の間の複雑な相互作用に関する総合的な洞察を提供する。
- 参考スコア(独自算出の注目度): 1.2289361708127877
- License:
- Abstract: Home delivery failures, traffic congestion, and relatively large handling times have a negative impact on the profitability of last-mile logistics. A potential solution is the delivery to parcel lockers or parcel shops, denoted by out-of-home (OOH) delivery. In the academic literature, models for OOH delivery were so far limited to static settings, contrasting with the sequential nature of the problem. We model the sequential decision-making problem of which OOH location to offer against what incentive for each incoming customer, taking into account future customer arrivals and choices. We propose Dynamic Selection and Pricing of OOH (DSPO), an algorithmic pipeline that uses a novel spatial-temporal state encoding as input to a convolutional neural network. We demonstrate the performance of our method by benchmarking it against two state-of-the-art approaches. Our extensive numerical study, guided by real-world data, reveals that DSPO can save 19.9%pt in costs compared to a situation without OOH locations, 7%pt compared to a static selection and pricing policy, and 3.8%pt compared to a state-of-the-art demand management benchmark. We provide comprehensive insights into the complex interplay between OOH delivery dynamics and customer behavior influenced by pricing strategies. The implications of our findings suggest practitioners to adopt dynamic selection and pricing policies.
- Abstract(参考訳): 宅配の失敗、交通渋滞、そして比較的大きな処理時間は、ラストマイル・ロジスティクスの収益性に悪影響を及ぼす。
潜在的な解決策は、宅配(OOH)と呼ばれるパーセルロッカーやパーセルショップへの配送である。
学術文献では、OOHデリバリーのモデルは、この問題のシーケンシャルな性質とは対照的に、これまで静的な設定に限られていた。
我々は、今後の顧客の到着や選択を考慮して、到着する顧客に対するインセンティブに対して、OOHロケーションが提供すべきシーケンシャルな意思決定問題をモデル化する。
本稿では、畳み込みニューラルネットワークへの入力として、新しい時空間状態符号化を用いたアルゴリズムパイプラインであるOOH(DSPO)の動的選択と価格設定を提案する。
本稿では,2つの最先端手法に対してベンチマークを行い,本手法の性能を実証する。
実世界のデータによって導かれた大規模な数値研究により、DSPOはOOHロケーションのない状況と比較して19.9%のコスト削減が可能であり、静的な選択と価格政策と比較して7%、最先端の需要管理ベンチマークに比べて3.8%のコスト削減が可能であることが判明した。
我々は、OOHデリバリーのダイナミクスと価格戦略に影響された顧客の行動の間の複雑な相互作用に関する総合的な洞察を提供する。
本研究の意義は,動的選択と価格設定を実践者が採用することを示唆している。
関連論文リスト
- MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
本稿では,車載メタバースにおける拡張現実(AR)サービスの学習モデルを支援するために,メタバースユーザ(MU)にインセンティブを与える新しい没入型モデルトレーディングフレームワークを提案する。
動的ネットワーク条件とプライバシの懸念を考慮して、マルチエージェントマルコフ決定プロセスとしてMSPの報酬決定を定式化する。
実験により,提案フレームワークは,実AR関連車両データセット上でのARサービスにおいて,オブジェクト検出と分類のための高価値モデルを効果的に提供できることが示されている。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Dynamic Demand Management for Parcel Lockers [0.0]
本研究では,逐次決定分析と強化学習に根ざしたアルゴリズム手法を編成するソリューションフレームワークを開発する。
これらのテクニックを組み合わせるための革新的なアプローチは、この2つの意思決定タイプ間の強い相互関係に対処する上で有効です。
本手法は筋電図のベンチマークを13.7%上回り、業界に触発された政策を12.6%上回る結果となった。
論文 参考訳(メタデータ) (2024-09-08T11:38:48Z) - Dynamic Pricing for Electric Vehicle Charging [6.1003048508889535]
複数の競合する目的に効率的に対処することで、動的価格問題に対する新しい定式化を開発する。
動的価格モデルは、複数の競合する目的を同時に解決しながら、需要と価格の関係を定量化する。
カリフォルニアの2つの充電サイトのリアルワールドデータが我々のアプローチを検証する。
論文 参考訳(メタデータ) (2024-08-26T10:32:21Z) - A Primal-Dual Online Learning Approach for Dynamic Pricing of Sequentially Displayed Complementary Items under Sale Constraints [54.46126953873298]
顧客に対して順次表示される補完アイテムの動的価格設定の問題に対処する。
各項目の価格を個別に最適化するのは効果がないため、補完項目のコヒーレントな価格ポリシーが不可欠である。
実世界のデータからランダムに生成した合成設定を用いて,我々のアプローチを実証的に評価し,制約違反や後悔の観点からその性能を比較した。
論文 参考訳(メタデータ) (2024-07-08T09:55:31Z) - Cost-Effective Proxy Reward Model Construction with On-Policy and Active Learning [70.22819290458581]
人間のフィードバックによる強化学習(RLHF)は、現在の大規模言語モデルパイプラインにおいて広く採用されているアプローチである。
提案手法では,(1)OODを回避するためのオン・ポリシー・クエリと,(2)プライオリティ・クエリの最も情報性の高いデータを選択するためのアクティブ・ラーニングという2つの重要なイノベーションを導入している。
論文 参考訳(メタデータ) (2024-07-02T10:09:19Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - LMaaS: Exploring Pricing Strategy of Large Model as a Service for
Communication [11.337245234301857]
有料サービスモードは、LM(Large Model as a Service)と呼ばれるこの文脈に適していると我々は主張する。
本稿では,顧客の将来的なレンタル決定を推論することで,大規模モデルの価格を反復的に最適化する反復モデル価格(IMP)アルゴリズムを提案する。
第2ステップでは、ロバストな選択とレンタルのアルゴリズムを設計することで、顧客の選択決定を最適化する。
論文 参考訳(メタデータ) (2024-01-05T07:19:19Z) - Structured Dynamic Pricing: Optimal Regret in a Global Shrinkage Model [50.06663781566795]
消費者の嗜好と価格感が時間とともに変化する動的モデルを考える。
我々は,モデルパラメータの順序を事前に把握している透視者と比較して,収益損失が予想される,後悔による動的価格政策の性能を計測する。
提案した政策の最適性を示すだけでなく,政策立案のためには,利用可能な構造情報を組み込むことが不可欠であることを示す。
論文 参考訳(メタデータ) (2023-03-28T00:23:23Z) - Semantic Information Marketing in The Metaverse: A Learning-Based
Contract Theory Framework [68.8725783112254]
仮想サービスプロバイダ(VSP)によるインセンティブのメカニズム設計の問題に対処し,センサデータ販売にIoTデバイスを採用。
帯域幅が限られているため,センサIoTデバイスによる配信データを削減するためにセマンティック抽出アルゴリズムを提案する。
本稿では,新しい反復型契約設計を提案し,マルチエージェント強化学習(MARL)の新たな変種を用いて,モデル付き多次元契約問題の解法を提案する。
論文 参考訳(メタデータ) (2023-02-22T15:52:37Z) - A Deep Reinforcement Learning Approach for Constrained Online Logistics
Route Assignment [4.367543599338385]
物流業界にとって、各出荷区画に適切な物流ルートを割り当てる方法が不可欠である。
このオンライン経路割り当て問題は、制約付きオンライン意思決定問題とみなすことができる。
我々はPPO-RAと呼ばれるモデルフリーDRLアプローチを開発し、経路割当(RA)の課題に対処する専用の技術を用いてPPO(Pximal Policy Optimization)を改善した。
論文 参考訳(メタデータ) (2021-09-08T07:27:39Z) - Online Regularization towards Always-Valid High-Dimensional Dynamic
Pricing [19.11333865618553]
本稿では,動的価格ポリシーに基づくオンライン統計学習を理論的保証付きで設計するための新しい手法を提案する。
提案手法は,提案する楽観的オンライン定期化最大価格(OORMLP)に3つの大きな利点がある。
理論的には,提案したOORMLPアルゴリズムは高次元モデルの空間構造を利用し,決定の地平線における対数的後悔を保証する。
論文 参考訳(メタデータ) (2020-07-05T23:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。