論文の概要: Competitive Multi-Operator Reinforcement Learning for Joint Pricing and Fleet Rebalancing in AMoD Systems
- arxiv url: http://arxiv.org/abs/2603.05000v1
- Date: Thu, 05 Mar 2026 09:44:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.173135
- Title: Competitive Multi-Operator Reinforcement Learning for Joint Pricing and Fleet Rebalancing in AMoD Systems
- Title(参考訳): AMoDシステムにおける共同価格とフリート・リバランシングのための競合型マルチオペレータ強化学習
- Authors: Emil Kragh Toft, Carolin Schmidt, Daniele Gammelli, Filipe Rodrigues,
- Abstract要約: マルチオペレータ強化学習フレームワークを導入することで,競争が政策学習に与える影響について検討する。
複数の都市の実世界のデータを用いた実験は、競争が学習した振る舞いを根本的に変え、価格を下げ、艦隊の配置パターンを明確にすることを示した。
- 参考スコア(独自算出の注目度): 6.547090882667874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Mobility-on-Demand (AMoD) systems promise to revolutionize urban transportation by providing affordable on-demand services to meet growing travel demand. However, realistic AMoD markets will be competitive, with multiple operators competing for passengers through strategic pricing and fleet deployment. While reinforcement learning has shown promise in optimizing single-operator AMoD control, existing work fails to capture competitive market dynamics. We investigate the impact of competition on policy learning by introducing a multi-operator reinforcement learning framework where two operators simultaneously learn pricing and fleet rebalancing policies. By integrating discrete choice theory, we enable passenger allocation and demand competition to emerge endogenously from utility-maximizing decisions. Experiments using real-world data from multiple cities demonstrate that competition fundamentally alters learned behaviors, leading to lower prices and distinct fleet positioning patterns compared to monopolistic settings. Notably, we demonstrate that learning-based approaches are robust to the additional stochasticity of competition, with competitive agents successfully converging to effective policies while accounting for partially unobserved competitor strategies.
- Abstract(参考訳): 自律型モビリティ・オン・デマンド(AMoD)システムは、旅行需要の増加に対応する安価なオンデマンドサービスを提供することで、都市交通に革命をもたらすと約束している。
しかし、現実的なAMoD市場は競争力があり、複数のオペレーターが戦略的価格と艦隊配備を通じて乗客を競う。
強化学習は単一演算子AMoD制御の最適化において有望であるが、既存の作業は競合する市場のダイナミクスを捉えることに失敗している。
2つのオペレータが同時に価格と艦隊再バランスポリシーを学習するマルチオペレータ強化学習フレームワークを導入することで、競合が政策学習に与える影響について検討する。
個別選択理論を統合することにより、利用者の割り当てと需要競争を、実用性最大化決定から不均一に実現することができる。
複数の都市の実世界のデータを用いた実験は、競争が学習した振る舞いを根本的に変えることを示し、単極論的な設定に比べて価格が低く、艦隊の位置決めパターンが異なることを示している。
特に,学習に基づくアプローチが競争の確率性に頑健であることを示し,競争エージェントは,部分的に観察されていない競合戦略を考慮しつつ,効果的な政策に収束することに成功した。
関連論文リスト
- ChargingBoul: A Competitive Negotiating Agent with Novel Opponent Modeling [0.0]
本稿では,2022年自動交渉エージェントコンペティション(ANAC)に出場した交渉エージェントChargingBoulを紹介する。
ChargingBoulは、高い交渉結果を達成するために、譲歩と反対モデリングのバランスをとる、軽量で効果的な戦略を採用している。
本研究は、競争結果と交渉研究におけるエージェントを利用したその後の研究を用いて、ChargingBoulのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2025-12-06T23:32:11Z) - The Bidding Games: Reinforcement Learning for MEV Extraction on Polygon Blockchain [0.11880231424287215]
本稿では,ポリゴンアトラスを用いたMEV抽出のための強化学習フレームワークを提案する。
我々の研究は、高頻度MEV環境において強化学習が重要な利点をもたらすことを証明している。
論文 参考訳(メタデータ) (2025-10-16T12:54:53Z) - The Hunger Game Debate: On the Emergence of Over-Competition in Multi-Agent Systems [90.96738882568224]
本稿では,超高圧下のエージェントが信頼できない有害な行動を示すマルチエージェント論争における過剰競争について検討する。
この現象を研究するために,ゼロサム競争領域下での議論をシミュレートする新しい実験フレームワークであるHATEを提案する。
論文 参考訳(メタデータ) (2025-09-30T11:44:47Z) - Order Acquisition Under Competitive Pressure: A Rapidly Adaptive Reinforcement Learning Approach for Ride-Hailing Subsidy Strategies [0.5717569761927883]
本稿では,高速競争適応(FCA)とRLA(Reinforced Lagrangian Adjustment)を提案し,競争相手の価格調整に迅速に適応する。
提案手法は,動的価格変動に対する迅速な対応を可能にする高速競争適応(FCA)と,予算制約の遵守を保証する強化ラグランジアン調整(RLA)の2つの重要な手法を統合する。
実験結果から,提案手法は多様な市場条件におけるベースラインアプローチを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2025-07-03T02:38:42Z) - Dynamic Pricing in High-Speed Railways Using Multi-Agent Reinforcement Learning [5.680630061642918]
本稿では,競合演算子や協調演算子のコンテキストにおいて,効果的な動的価格戦略を設計する上での課題について述べる。
非ゼロサムマルコフゲームに基づく強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-14T16:19:25Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [92.40586697273868]
モノのインターネットのタイムリーな更新は、車載メタバースサービスの没入を実現するために不可欠である。
本稿では,フェデレーション学習による効率的なプライバシ保護データ提供を可能にする没入型モデルトレーディングフレームワークを提案する。
実験の結果,提案手法は最先端のベンチマークよりも優れていた。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Strategic Collusion of LLM Agents: Market Division in Multi-Commodity Competitions [0.0]
機械学習技術は、現実世界の市場シナリオへの展開が増えている。
マルチコモディティ市場において,大規模言語モデル(LLM)が自律エージェントとして展開する際の戦略行動について検討する。
論文 参考訳(メタデータ) (2024-09-19T20:10:40Z) - Defection-Free Collaboration between Competitors in a Learning System [61.22540496065961]
協力によって収益を失うと、参加者がシステムから外れる競合相手となる協調学習システムについて検討する。
我々は、両社が利益を失わずに相互に共有する、より公平で*欠陥のない*スキームを提案する。
論文 参考訳(メタデータ) (2024-06-22T17:29:45Z) - CompeteSMoE -- Effective Training of Sparse Mixture of Experts via
Competition [52.2034494666179]
スパース・ミックス・オブ・エキスパート(SMoE)は、ネットワークの深さや幅を増大させる平均を超えた、モデルの複雑さをスケールアップする魅力的なソリューションを提供する。
本稿では,この表現崩壊の根本的な課題に対処する競合機構を提案する。
入力を最も高い神経応答を持つ専門家にのみルーティングすることにより、コンペティションが最適推定器と同じ収束率を持つことを示す。
論文 参考訳(メタデータ) (2024-02-04T15:17:09Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - A Cooperative-Competitive Multi-Agent Framework for Auto-bidding in
Online Advertising [53.636153252400945]
本稿では,自動入札のための総合的マルチエージェント強化学習フレームワーク,すなわちMAABを提案し,自動入札戦略を学習する。
当社のアプローチは、社会的福祉の観点から、いくつかの基準的手法を上回り、広告プラットフォームの収益を保証します。
論文 参考訳(メタデータ) (2021-06-11T08:07:14Z) - Flatland Competition 2020: MAPF and MARL for Efficient Train
Coordination on a Grid World [49.80905654161763]
車両再スケジュール問題(vrsp)の解法開発を目的としたフラットランドコンペティション
VRSPは、交通ネットワークにおける旅行のスケジュールと、故障が発生した場合の車両の再スケジュールに関するものである。
現代の鉄道網の複雑化は、交通の動的リアルタイムスケジューリングを事実上不可能にします。
論文 参考訳(メタデータ) (2021-03-30T17:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。