論文の概要: Few-Shot Learning for Dynamic Operations of Automated Electric Taxi Fleets under Evolving Charging Infrastructure: A Meta-Deep Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2601.21312v1
- Date: Thu, 29 Jan 2026 06:16:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.613825
- Title: Few-Shot Learning for Dynamic Operations of Automated Electric Taxi Fleets under Evolving Charging Infrastructure: A Meta-Deep Reinforcement Learning Approach
- Title(参考訳): 充電インフラを進化させる電動タクシー艦隊の動的運用のためのFew-Shotラーニング-メタディープ強化学習アプローチ
- Authors: Xiaozhuang Li, Xindi Tang, Fang He,
- Abstract要約: 本稿では,適応的な運用方針を学習するメタ強化学習フレームワークであるGAT-PEARLを提案する。
GAT-PEARLは従来の強化学習ベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 3.9443085703523706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid expansion of electric vehicles (EVs) and charging infrastructure, the effective management of Autonomous Electric Taxi (AET) fleets faces a critical challenge in environments with dynamic and uncertain charging availability. While most existing research assumes a static charging network, this simplification creates a significant gap between theoretical models and real-world operations. To bridge this gap, we propose GAT-PEARL, a novel meta-reinforcement learning framework that learns an adaptive operational policy. Our approach integrates a graph attention network (GAT) to effectively extract robust spatial representations under infrastructure layouts and model the complex spatiotemporal relationships of the urban environment, and employs probabilistic embeddings for actor-critic reinforcement learning (PEARL) to enable rapid, inference-based adaptation to changes in charging network layouts without retraining. Through extensive simulations on real-world data in Chengdu, China, we demonstrate that GAT-PEARL significantly outperforms conventional reinforcement learning baselines, showing superior generalization to unseen infrastructure layouts and achieving higher overall operational efficiency in dynamic settings.
- Abstract(参考訳): 電気自動車(EV)と充電インフラの急速な拡大により、自律型電気タクシー(AET)の効果的管理は、動的かつ不確実な充電能力を有する環境において重大な課題に直面している。
既存の研究の多くは静的充電ネットワークを前提としているが、この単純化は理論モデルと実世界の運用との間に大きなギャップを生じさせる。
このギャップを埋めるために,適応的な運用方針を学習する新しいメタ強化学習フレームワークであるGAT-PEARLを提案する。
提案手法は, 都市環境の複雑な時空間関係をモデル化し, 空間的空間表現を効果的に抽出するグラフアテンションネットワーク (GAT) を統合し, アクター・クリティック・強化学習 (PEARL) の確率的埋め込みを用いて, 充電ネットワークレイアウトの変更に対して, 再訓練なしに迅速に, 推論に基づく適応を可能にする。
GAT-PEARLは,中国の成都における実世界データに関する広範なシミュレーションを通じて,従来の強化学習ベースラインを著しく上回り,未確認のインフラストラクチャレイアウトに対する優れた一般化と,動的設定における全体的な運用効率の向上を実証した。
関連論文リスト
- Optimizing Energy and Data Collection in UAV-aided IoT Networks using Attention-based Multi-Objective Reinforcement Learning [7.900374101465939]
無人航空機(UAV)は、特にデータ収集作業において、無線ネットワークサービスにとってますます重要になっている。
既存のアルゴリズムは限られたトレーニングデータに悩まされており、非常にダイナミックな環境でパフォーマンスを損なう。
本研究では,都市環境におけるデータ収集とエネルギー消費のトレードオフを明示的に扱う多目的強化学習アーキテクチャを提案する。
論文 参考訳(メタデータ) (2026-01-20T15:55:11Z) - Wireless Traffic Prediction with Large Language Model [54.07581399989292]
TIDESは、無線トラフィック予測のための空間時間相関をキャプチャする新しいフレームワークである。
TIDESは過剰なトレーニングオーバーヘッドを発生させることなく、ドメイン固有のパターンへの効率的な適応を実現する。
この結果から,将来の6Gシステムにおいて,空間認識をLCMベースの予測器に統合することが,スケーラブルでインテリジェントなネットワーク管理の鍵であることが示唆された。
論文 参考訳(メタデータ) (2025-12-19T04:47:40Z) - Power Grid Control with Graph-Based Distributed Reinforcement Learning [60.49805771047161]
この作業は、リアルタイムでスケーラブルなグリッド管理のためのグラフベースの分散強化学習フレームワークを前進させる。
グラフニューラルネットワーク(GNN)を使用して、ネットワークのトポロジ情報を単一の低レベルエージェントの観測内にエンコードする。
Grid2Opシミュレーション環境での実験は、このアプローチの有効性を示している。
論文 参考訳(メタデータ) (2025-09-02T22:17:25Z) - In-Context Learning for Gradient-Free Receiver Adaptation: Principles, Applications, and Theory [54.92893355284945]
ディープラーニングベースの無線受信機は、様々なチャネル環境に動的に適応する能力を提供する。
ジョイントトレーニング、ハイパーネットワークベースの手法、メタラーニングを含む現在の適応戦略は、限られた柔軟性を示すか、勾配降下による明示的な最適化を必要とする。
本稿では、インコンテキスト学習(ICL)の新たなパラダイムに根ざした勾配なし適応手法を提案する。
論文 参考訳(メタデータ) (2025-06-18T06:43:55Z) - Quantum-Enhanced Hybrid Reinforcement Learning Framework for Dynamic Path Planning in Autonomous Systems [2.7173738939072796]
量子を古典的強化学習と相乗化する新しい量子古典ハイブリッドフレームワークが提案されている。
提案手法は,従来の強化学習パイプラインと統合された,堅牢なQテーブルと特別なターンコスト推定を生成する。
論文 参考訳(メタデータ) (2025-04-29T11:36:08Z) - A General Infrastructure and Workflow for Quadrotor Deep Reinforcement Learning and Reality Deployment [48.90852123901697]
本稿では, エンドツーエンドの深層強化学習(DRL)ポリシーを四元数へシームレスに移行できるプラットフォームを提案する。
本プラットフォームは, ホバリング, 動的障害物回避, 軌道追尾, 気球打上げ, 未知環境における計画など, 多様な環境を提供する。
論文 参考訳(メタデータ) (2025-04-21T14:25:23Z) - DClEVerNet: Deep Combinatorial Learning for Efficient EV Charging
Scheduling in Large-scale Networked Facilities [5.78463306498655]
電気自動車(EV)は配電ネットワークを著しくストレスし、性能を劣化させ、安定性を損なう可能性がある。
現代の電力網は、EV充電スケジューリングをスケーラブルで効率的な方法で最適化できる、コーディネートまたはスマートな充電戦略を必要とする。
ネットワークの利用可能な電力容量とステーションの占有限度を考慮しつつ、EV利用者の総福祉利益を最大化する時間結合二元最適化問題を定式化する。
論文 参考訳(メタデータ) (2023-05-18T14:03:47Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。