論文の概要: Single-Leg Revenue Management with Advice
- arxiv url: http://arxiv.org/abs/2202.10939v1
- Date: Fri, 18 Feb 2022 00:32:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 16:53:21.018561
- Title: Single-Leg Revenue Management with Advice
- Title(参考訳): アドバイザによるシングルレグ収益管理
- Authors: Santiago Balseiro, Christian Kroer, Rachitesh Kumar
- Abstract要約: 我々は、アルゴリズムとアドバイスのフレームワークのレンズを通して、シングルレグの収益管理の問題に目を向ける。
すべてのアドバイスに対する一貫性(アドバイスが正確であればパフォーマンス)と競争性(アドバイスが不正確であればパフォーマンス)のトレードオフを特徴付ける。
また、シングルレッグ収益管理において最も広く展開されている技術である保護レベル政策のクラスについても検討する。
- 参考スコア(独自算出の注目度): 27.21119630468227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-leg revenue management is a foundational problem of revenue management
that has been particularly impactful in the airline and hotel industry: Given
$n$ units of a resource, e.g. flight seats, and a stream of
sequentially-arriving customers segmented by fares, what is the optimal online
policy for allocating the resource. Previous work focused on designing
algorithms when forecasts are available, which are not robust to inaccuracies
in the forecast, or online algorithms with worst-case performance guarantees,
which can be too conservative in practice. In this work, we look at the
single-leg revenue management problem through the lens of the
algorithms-with-advice framework, which attempts to optimally incorporate
advice/predictions about the future into online algorithms. In particular, we
characterize the Pareto frontier that captures the tradeoff between consistency
(performance when advice is accurate) and competitiveness (performance when
advice is inaccurate) for every advice. Moreover, we provide an online
algorithm that always achieves performance on this Pareto frontier. We also
study the class of protection level policies, which is the most widely-deployed
technique for single-leg revenue management: we provide an algorithm to
incorporate advice into protection levels that optimally trades off consistency
and competitiveness. Moreover, we empirically evaluate the performance of these
algorithms on synthetic data. We find that our algorithm for protection level
policies performs remarkably well on most instances, even if it is not
guaranteed to be on the Pareto frontier in theory.
- Abstract(参考訳): シングルレグ収益管理は、航空会社やホテル業界で特に影響を受けてきた収入管理の基本的な問題である:例えば、フライトシートや、運賃で区分けされた順次購入する顧客のストリームなど、リソースを割り当てるための最適なオンラインポリシーは何か。
予測が利用可能で、予測の不正確さに対して堅牢ではないアルゴリズムや、最悪のパフォーマンス保証を備えたオンラインアルゴリズムの設計に重点を置いていた。
本研究では,将来についてのアドバイスや予測を最適にオンラインアルゴリズムに組み込もうとするアルゴリズム・ウィズ・アドバイザ・フレームワークのレンズを通して,シングルレグの収益管理問題を考察する。
特に、すべてのアドバイスに対する一貫性(アドバイスが正確であればパフォーマンス)と競争性(アドバイスが不正確であればパフォーマンス)のトレードオフを捉えたParetoフロンティアを特徴づけます。
さらに,このParetoフロンティアの性能を常に達成するオンラインアルゴリズムを提供する。
また、単一レグ収益管理において最も広く展開されている技術である保護レベルポリシーのクラスについても検討し、一貫性と競争性を最適にトレードオフする保護レベルにアドバイスを組み込むアルゴリズムを提供する。
さらに,これらのアルゴリズムの合成データに対する性能を実験的に評価した。
保護レベルポリシーのアルゴリズムは,理論上はパレートフロンティアにあることが保証されていなくても,ほとんどのケースにおいて極めてよく機能することがわかった。
関連論文リスト
- Overcoming Brittleness in Pareto-Optimal Learning-Augmented Algorithms [6.131022957085439]
本稿では,ユーザ特定プロファイルを用いて,アルゴリズムの性能のスムーズさを強制する新しいフレームワークを提案する。
我々は、この新しいアプローチを、よく研究されたオンライン問題、すなわち片道取引問題に適用する。
論文 参考訳(メタデータ) (2024-08-07T23:15:21Z) - Online Resource Allocation with Convex-set Machine-Learned Advice [27.662388663465006]
本稿では、一貫した比とロバストな比のバランスをとる最適オンラインリソース割り当てアルゴリズムのパラメータ化クラスを導入する。
具体的には、C-リート最適設定において、ロバスト比が少なくともCであることを保証するとともに、一貫した比を最大化する。
論文 参考訳(メタデータ) (2023-06-21T14:09:33Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Online Resource Allocation: Bandits feedback and Advice on Time-varying
Demands [12.081877372552606]
我々は、帯域幅のフィードバックと時間変化の要求を伴う一般的なオンラインリソース割り当てモデルについて検討する。
最近のOnline Algorithms with Adviceフレームワークに触発され、オンラインアドバイスがポリシー設計にどのように役立つかを探る。
提案アルゴリズムは,文学における他のアルゴリズムと比較して,理論的性能と有望な数値結果の両方を有することを示した。
論文 参考訳(メタデータ) (2023-02-08T16:40:43Z) - Instance-Dependent Confidence and Early Stopping for Reinforcement
Learning [99.57168572237421]
強化学習(RL)のための様々なアルゴリズムは、その収束率の劇的な変動を問題構造の関数として示している。
この研究は、観察されたパフォーマンスの違いについて、textitexを説明する保証を提供する。
次の自然なステップは、これらの理論的保証を実際に有用なガイドラインに変換することです。
論文 参考訳(メタデータ) (2022-01-21T04:25:35Z) - Safe Online Bid Optimization with Return-On-Investment and Budget
Constraints subject to Uncertainty [87.81197574939355]
最適化問題と学習問題の両方について検討する。
我々は、潜在的に線形な数の制約違反を犠牲にして、サブ線形後悔を保証するアルゴリズム、すなわちGCBを提供する。
より興味深いことに、我々はGCB_safe(psi,phi)というアルゴリズムを提供し、サブ線形擬似回帰と安全性w.h.p.の両方を、耐性 psi と phi を受け入れるコストで保証する。
論文 参考訳(メタデータ) (2022-01-18T17:24:20Z) - Double Coverage with Machine-Learned Advice [100.23487145400833]
オンラインの基本的な$k$-serverの問題を学習強化環境で研究する。
我々のアルゴリズムは任意の k に対してほぼ最適の一貫性-破壊性トレードオフを達成することを示す。
論文 参考訳(メタデータ) (2021-03-02T11:04:33Z) - Online Apprenticeship Learning [58.45089581278177]
見習い学習(AL)では、コスト関数にアクセスせずにマルコフ決定プロセス(MDP)が与えられます。
目標は、事前に定義されたコスト関数のセットで専門家のパフォーマンスに一致するポリシーを見つけることです。
ミラー下降型ノンレグレットアルゴリズムを2つ組み合わせることで,OAL問題を効果的に解くことができることを示す。
論文 参考訳(メタデータ) (2021-02-13T12:57:51Z) - Optimal Robustness-Consistency Trade-offs for Learning-Augmented Online
Algorithms [85.97516436641533]
機械学習予測を取り入れたオンラインアルゴリズムの性能向上の課題について検討する。
目標は、一貫性と堅牢性の両方を備えたアルゴリズムを設計することだ。
機械学習予測を用いた競合解析のための非自明な下界の最初のセットを提供する。
論文 参考訳(メタデータ) (2020-10-22T04:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。