論文の概要: Optimizing Revenue Maximization and Demand Learning in Airline Revenue
Management
- arxiv url: http://arxiv.org/abs/2203.11065v1
- Date: Mon, 21 Mar 2022 15:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 20:25:53.875250
- Title: Optimizing Revenue Maximization and Demand Learning in Airline Revenue
Management
- Title(参考訳): 航空収益管理における収益最大化と需要学習の最適化
- Authors: Giovanni Gatti Pinheiro, Michael Defoin-Platel, Jean-Charles Regin
- Abstract要約: 提案アルゴリズムは,従来の手法よりも長い地平線上で収益を生み出すために,価格実験を効率よく行うことを示す。
この作業は、航空会社の収益管理(RM)において生じる一定の制約に適応する必要がある。
提案アルゴリズムは,従来の手法よりも長い地平線上で収益を生み出すために,価格実験を効率よく行うことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Correctly estimating how demand respond to prices is fundamental for airlines
willing to optimize their pricing policy. Under some conditions, these
policies, while aiming at maximizing short term revenue, can present too little
price variation which may decrease the overall quality of future demand
forecasting. This problem, known as earning while learning problem, is not
exclusive to airlines, and it has been investigated by academia and industry in
recent years. One of the most promising methods presented in literature
combines the revenue maximization and the demand model quality into one single
objective function. This method has shown great success in simulation studies
and real life benchmarks. Nevertheless, this work needs to be adapted to
certain constraints that arise in the airline revenue management (RM), such as
the need to control the prices of several active flights of a leg
simultaneously. In this paper, we adjust this method to airline RM while
assuming unconstrained capacity. Then, we show that our new algorithm
efficiently performs price experimentation in order to generate more revenue
over long horizons than classical methods that seek to maximize revenue only.
- Abstract(参考訳): 価格に対する需要の反応を正しく見積もることは、航空会社が価格政策を最適化するのに欠かせない。
ある条件下では、短期的な収入を最大化しようとする一方で、価格変動が少なすぎる可能性があり、将来の需要予測の全体的な品質が低下する可能性がある。
この問題は「学習中の収入」として知られ、航空会社に限ったものではなく、近年は学界や産業によって研究されている。
文献で提示される最も有望な方法の1つは、収益の最大化と需要モデルの品質を1つの目的関数に組み合わせることである。
この手法はシミュレーション研究や実生活のベンチマークで大きな成功を収めている。
にもかかわらず、この作業は、複数の脚のアクティブフライトの価格を同時に制御する必要があるなど、航空会社の収益管理(RM)に生じる一定の制約に適応する必要がある。
本稿では、制約のない容量を仮定しながら、この方法を航空会社RMに調整する。
そして,本アルゴリズムは,収益のみを最大化しようとする古典的手法よりも,長期にわたって収益を生み出すために,価格実験を効率よく行うことを示す。
関連論文リスト
- A Primal-Dual Online Learning Approach for Dynamic Pricing of Sequentially Displayed Complementary Items under Sale Constraints [54.46126953873298]
顧客に対して順次表示される補完アイテムの動的価格設定の問題に対処する。
各項目の価格を個別に最適化するのは効果がないため、補完項目のコヒーレントな価格ポリシーが不可欠である。
実世界のデータからランダムに生成した合成設定を用いて,我々のアプローチを実証的に評価し,制約違反や後悔の観点からその性能を比較した。
論文 参考訳(メタデータ) (2024-07-08T09:55:31Z) - Learning with Posterior Sampling for Revenue Management under Time-varying Demand [36.22276574805786]
価格設定項目やサービスによる収益を最大化するための収益管理問題について議論する。
この問題の1つの課題は、需要分布が未知であり、航空会社や小売業のような実際の応用において時間とともに変化することである。
論文 参考訳(メタデータ) (2024-05-08T09:28:26Z) - Dynamic Pricing and Learning with Long-term Reference Effects [16.07344044662994]
本研究では,販売者が提示した過去の価格の基準価格が平均値となる,シンプルで斬新な参照価格メカニズムについて検討する。
このメカニズムの下では,モデルパラメータに関係なく,マークダウンポリシがほぼ最適であることを示す。
次に、需要モデルパラメータが不明な、より困難な動的価格と学習の問題について検討する。
論文 参考訳(メタデータ) (2024-02-19T21:36:54Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Revenue Management without Demand Forecasting: A Data-Driven Approach
for Bid Price Generation [25.53238782264327]
本稿では、需要予測と最適化技術の必要性を排除したデータ駆動型の収益管理手法を提案する。
我々はニューラルネットワークアルゴリズムを用いて入札価格を将来に向けて予測する。
以上の結果から,我々のデータ駆動手法は,幅広い設定において理論的に最適(1%の収益格差)に近いままであることがわかった。
論文 参考訳(メタデータ) (2023-04-14T21:10:13Z) - Structured Dynamic Pricing: Optimal Regret in a Global Shrinkage Model [50.06663781566795]
消費者の嗜好と価格感が時間とともに変化する動的モデルを考える。
我々は,モデルパラメータの順序を事前に把握している透視者と比較して,収益損失が予想される,後悔による動的価格政策の性能を計測する。
提案した政策の最適性を示すだけでなく,政策立案のためには,利用可能な構造情報を組み込むことが不可欠であることを示す。
論文 参考訳(メタデータ) (2023-03-28T00:23:23Z) - Spatio-temporal Incentives Optimization for Ride-hailing Services with
Offline Deep Reinforcement Learning [7.668735431419396]
本稿では,輸送資源の利用と顧客満足度を向上させるため,需要側のオフライン強化学習手法を提案する。
我々は、時間と場所の異なる価値を学習するための深層時間学習法を採用し、その上で、乗客が需要分布を調整し、システムの供給と需要のバランスをとるように、乗車要求をインセンティブ化する。
論文 参考訳(メタデータ) (2022-11-06T23:54:38Z) - Learning (Local) Surrogate Loss Functions for Predict-Then-Optimize
Problems [58.954414264760956]
決定焦点学習(Decision-Focused Learning, DFL)は、予測モデルを下流の最適化タスクに調整するためのパラダイムである。
本稿では,(a)最適化問題を解き,一般化可能なブラックボックスオラクルへのアクセスのみを必要とする忠実なタスク固有サロゲートを学習し,(b)勾配で凸し,容易に最適化できる手法を提案する。
論文 参考訳(メタデータ) (2022-03-30T05:46:54Z) - A machine learning approach to itinerary-level booking prediction in
competitive airline markets [0.0]
競合データ、価格、ソーシャルメディア、安全、航空会社のレビューなど、複数のソースからのデータを組み合わせています。
顧客行動は価格に敏感でスケジュールに敏感で快適なODに分類できることを示す。
このモデルは、従来の時系列予測よりも高い収益をもたらす予測を生成する。
論文 参考訳(メタデータ) (2021-03-15T14:32:11Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z) - MOPO: Model-based Offline Policy Optimization [183.6449600580806]
オフライン強化学習(英語: offline reinforcement learning, RL)とは、以前に収集された大量のデータから完全に学習ポリシーを学習する問題を指す。
既存のモデルベースRLアルゴリズムは,すでにオフライン設定において大きな利益を上げていることを示す。
本稿では,既存のモデルに基づくRL法を,力学の不確実性によって人為的に罰せられる報酬で適用することを提案する。
論文 参考訳(メタデータ) (2020-05-27T08:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。