論文の概要: Shared learning of powertrain control policies for vehicle fleets
- arxiv url: http://arxiv.org/abs/2404.17892v1
- Date: Sat, 27 Apr 2024 13:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 18:41:58.420208
- Title: Shared learning of powertrain control policies for vehicle fleets
- Title(参考訳): 車両用パワートレイン制御ポリシーの共有学習
- Authors: Lindsey Kerbel, Beshah Ayalew, Andrej Ivanco,
- Abstract要約: 深部強化学習(DRL)は、燃料経済やその他のパフォーマンス指標を最適化するパワートレイン制御ポリシーを現場で学習することを目的としている。
本稿では, 蒸留グループ政策を用いて, 車両群間で共有学習を行うための新しい枠組みを提案する。
ベースラインに比べて燃料経済は平均8.5%改善している。
- 参考スコア(独自算出の注目度): 3.9325957466009203
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Emerging data-driven approaches, such as deep reinforcement learning (DRL), aim at on-the-field learning of powertrain control policies that optimize fuel economy and other performance metrics. Indeed, they have shown great potential in this regard for individual vehicles on specific routes or drive cycles. However, for fleets of vehicles that must service a distribution of routes, DRL approaches struggle with learning stability issues that result in high variances and challenge their practical deployment. In this paper, we present a novel framework for shared learning among a fleet of vehicles through the use of a distilled group policy as the knowledge sharing mechanism for the policy learning computations at each vehicle. We detail the mathematical formulation that makes this possible. Several scenarios are considered to analyze the functionality, performance, and computational scalability of the framework with fleet size. Comparisons of the cumulative performance of fleets using our proposed shared learning approach with a baseline of individual learning agents and another state-of-the-art approach with a centralized learner show clear advantages to our approach. For example, we find a fleet average asymptotic improvement of 8.5 percent in fuel economy compared to the baseline while also improving on the metrics of acceleration error and shifting frequency for fleets serving a distribution of suburban routes. Furthermore, we include demonstrative results that show how the framework reduces variance within a fleet and also how it helps individual agents adapt better to new routes.
- Abstract(参考訳): 深層強化学習(DRL)のようなデータ駆動型アプローチは、燃料経済やその他のパフォーマンス指標を最適化するパワートレイン制御ポリシーを現場で学習することを目的としている。
実際、特定のルート上の個々の車両や運転サイクルについて、この点において大きな可能性を示してきた。
しかし、ルートの分散を行なわなければならない車両群にとって、DRLアプローチは、高いばらつきをもたらし、実践的な展開に挑戦する学習安定性の問題に苦慮する。
本稿では,各車両における政策学習計算の知識共有機構として,蒸留グループポリシーを用いて,車両群間の共通学習のための新しい枠組みを提案する。
これを可能にする数学的定式化について詳述する。
いくつかのシナリオは、フレームワークの機能、パフォーマンス、および計算のスケーラビリティをフリートサイズで分析すると考えられている。
提案手法と個別学習エージェントのベースラインを用いた共有学習手法と,集中学習者による最先端学習手法との比較により,我々のアプローチに明らかなメリットが示された。
例えば、ベースラインに比べて燃費が平均8.5%の漸近的な改善が見られ、郊外のルートを運行する艦隊の加速誤差とシフト頻度の指標も改善されている。
さらに、フレームワークがフリート内の分散を減らし、個々のエージェントが新しいルートに適応するのに役立つことを示す実証的な結果も含んでいます。
関連論文リスト
- Mobility-Aware Federated Learning: Multi-Armed Bandit Based Selection in Vehicular Network [6.2413189928023085]
本研究では,車両が道路セグメントを走行してFLを行う移動型車両連合学習(MAVFL)方式を設計する。
我々は、車両の移動が訓練損失に与える影響を示すために収束分析を行う。
トレーニングの損失と遅延を考慮した多腕バンディットに基づく車両選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-14T12:45:15Z) - Robot Fleet Learning via Policy Merging [58.5086287737653]
我々はFLEET-MERGEを提案し、艦隊設定における政策を効率的にマージする。
本稿では,FLEET-MERGEがメタワールド環境における50のタスクで訓練されたポリシーの行動を統合することを示す。
合成・接触に富んだロボット操作タスクにおけるフリートポリシー学習のための新しいロボットツール用ベンチマークであるFLEET-TOOLSを導入する。
論文 参考訳(メタデータ) (2023-10-02T17:23:51Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Learning-based Online Optimization for Autonomous Mobility-on-Demand
Fleet Control [8.020856741504794]
自律移動オンデマンドシステムのためのオンライン制御アルゴリズムについて検討する。
我々は、オンラインディスパッチとリバランスポリシーを学習する、新しいハイブリッド強化機械学習パイプラインを開発した。
提案手法は,最先端の欲求とモデル予測制御のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-08T09:40:30Z) - Residual Policy Learning for Powertrain Control [2.064612766965483]
本稿では、リザーブポリシー学習(RPL)エージェントを使用して、デフォルトのパワートレインコントローラにリザーブアクションを提供するアクティブドライバ支援手法の概要を述べる。
各種の自動車追従シナリオにおける模擬商用車両の実装により,RPLエージェントは,ベースラインのソースポリシーと比較して急速に改善されたポリシーを学習することがわかった。
論文 参考訳(メタデータ) (2022-12-15T04:22:21Z) - Embedding Synthetic Off-Policy Experience for Autonomous Driving via
Zero-Shot Curricula [48.58973705935691]
我々は、データの10%サブセットのみを使用してトレーニングされたエージェントが、データセット全体に対してトレーニングされたエージェントと同様に動作することを示す。
次に、この難易度スコアをゼロショット転送に使用して、模倣学習に基づく計画エージェントのカリキュラムを生成することを実証する。
論文 参考訳(メタデータ) (2022-12-02T18:57:21Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Supervised Permutation Invariant Networks for Solving the CVRP with
Bounded Fleet Size [3.5235974685889397]
車両ルーティング問題などの最適化問題を解くための学習は、大きな計算上の利点をもたらす。
本研究では,アプリオリ固定数の車両を尊重しながら,スクラッチから完全なツアー計画を構築する強力な教師付きディープラーニングフレームワークを提案する。
効率的な後処理方式と組み合わせることで,教師付きアプローチはより高速かつ容易にトレーニングできるだけでなく,競争力のある結果が得られる。
論文 参考訳(メタデータ) (2022-01-05T10:32:18Z) - Deep Reinforcement Learning for Solving the Heterogeneous Capacitated
Vehicle Routing Problem [13.389057146418056]
現実のシナリオにおける車両は、その能力(または走行速度)に影響を与える異なる特徴を持つ異種である可能性が高い
異種艦隊制約を考慮した車両選択デコーダと経路構成を考慮したノード選択デコーダとを併用した注意機構に基づくDRL手法を提案し,各ステップで車両とノードの両方を自動的に選択して解を構築することを学習する。
論文 参考訳(メタデータ) (2021-10-06T10:05:19Z) - Real-world Ride-hailing Vehicle Repositioning using Deep Reinforcement
Learning [52.2663102239029]
アイドルヘイリングプラットフォーム上での現実世界の車両の深層強化学習と意思決定時間計画に基づく新しい実用的枠組みを提示する。
本手法は,重み付きバッチ学習アルゴリズムを用いて乗車時の状態値関数を学習する。
配車シミュレーション環境におけるベースラインでアルゴリズムをベンチマークし、収益効率の向上における優位性を実証します。
論文 参考訳(メタデータ) (2021-03-08T05:34:05Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。