論文の概要: A Comparative Study of Deep Reinforcement Learning-based Transferable
Energy Management Strategies for Hybrid Electric Vehicles
- arxiv url: http://arxiv.org/abs/2202.11514v1
- Date: Tue, 22 Feb 2022 03:18:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 07:36:24.560725
- Title: A Comparative Study of Deep Reinforcement Learning-based Transferable
Energy Management Strategies for Hybrid Electric Vehicles
- Title(参考訳): ハイブリッド電気自動車の深部強化学習に基づく伝達可能エネルギー管理手法の比較検討
- Authors: Jingyi Xu, Zirui Li, Li Gao, Junyi Ma, Qi Liu and Yanan Zhao
- Abstract要約: ハイブリッド電気自動車(HEV)におけるエネルギマネジメント戦略(EMS)の課題
運転サイクルを変更すると、ネットワークが再トレーニングされる。
EMSを選択するより効率的な方法は、深層強化学習(DRL)と移行学習を組み合わせることで、あるドメインの知識を他の新しいドメインに転送することができる。
- 参考スコア(独自算出の注目度): 26.32065215070386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deep reinforcement learning-based energy management strategies (EMS) has
become a promising solution for hybrid electric vehicles (HEVs). When driving
cycles are changed, the network will be retrained, which is a time-consuming
and laborious task. A more efficient way of choosing EMS is to combine deep
reinforcement learning (DRL) with transfer learning, which can transfer
knowledge of one domain to the other new domain, making the network of the new
domain reach convergence values quickly. Different exploration methods of RL,
including adding action space noise and parameter space noise, are compared
against each other in the transfer learning process in this work. Results
indicate that the network added parameter space noise is more stable and faster
convergent than the others. In conclusion, the best exploration method for
transferable EMS is to add noise in the parameter space, while the combination
of action space noise and parameter space noise generally performs poorly. Our
code is available at https://github.com/BIT-XJY/RL-based-Transferable-EMS.git.
- Abstract(参考訳): 深層強化学習に基づくエネルギー管理戦略(EMS)はハイブリッド電気自動車(HEV)にとって有望なソリューションとなっている。
運転サイクルが変更されると、ネットワークが再トレーニングされる。
EMSを選択するより効率的な方法は、深層強化学習(DRL)と転送学習を組み合わせることで、あるドメインの知識を他のドメインに転送し、新しいドメインのネットワークが収束値に素早く到達できるようにすることである。
本研究におけるトランスファー学習過程において、動作空間ノイズとパラメータ空間ノイズの付加を含むrlの異なる探索手法を比較検討した。
その結果,ネットワーク付加パラメータ空間雑音は,他よりも安定で収束が速いことがわかった。
結論として, トランスファー可能なemsの最適探索方法はパラメータ空間にノイズを加えることであり, 動作空間ノイズとパラメータ空間ノイズの組み合わせは一般的には不十分である。
私たちのコードはhttps://github.com/BIT-XJY/RL-based-Transferable-EMS.gitで利用可能です。
関連論文リスト
- Solving Continual Offline Reinforcement Learning with Decision
Transformer [84.32004665413395]
連続的オフライン強化学習(CORL)は、連続的およびオフライン的な強化学習を組み合わせたものである。
Actor-Critic構造とエクスペリエンス・リプレイ(ER)を取り入れた既存の手法は、分散シフト、低効率、知識共有の弱さに悩まされている。
我々は,マルチヘッドDT (MH-DT) とローランク適応DT (LoRA-DT) を導入し,DTの無視問題を緩和する。
論文 参考訳(メタデータ) (2024-01-16T16:28:32Z) - An advantage based policy transfer algorithm for reinforcement learning
with metrics of transferability [6.660458629649826]
強化学習(Reinforcement Learning, RL)は, 複雑・高次元環境における逐次的意思決定を可能にする。
トランスファーRLアルゴリズムは、1つまたは複数のソース環境からターゲット環境への知識の転送に使用できる。
本稿では、固定されたドメイン環境に対する非政治アドバンテージベースのポリシー転送アルゴリズムであるAPT-RLを提案する。
論文 参考訳(メタデータ) (2023-11-12T04:25:53Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Network Slicing via Transfer Learning aided Distributed Deep
Reinforcement Learning [7.126310378721161]
本稿では, セル間リソース分割のためのマルチエージェント間類似性解析を用いた多エージェント深部強化学習(MADRL)手法を提案する。
提案手法は, 性能, 収束速度, サンプル効率の観点から, 最先端のソリューションよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-09T10:55:13Z) - Hierarchical Over-the-Air FedGradNorm [50.756991828015316]
MTL(Multi-task Learning)は、単一の共有ネットワークで複数の関連するタスクを同時に学習する学習パラダイムである。
我々は,HOTA-FedGradNormと呼ばれる動的重み付け戦略を用いた階層的オーバー・ザ・エア(HOTA)PFLを提案する。
論文 参考訳(メタデータ) (2022-12-14T18:54:46Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Decentralized Cooperative Lane Changing at Freeway Weaving Areas Using
Multi-Agent Deep Reinforcement Learning [1.6752182911522522]
マージやウィービングエリアなどの高速道路ボトルネックにおける渋滞時の車線変化は、さらに道路の容量を減少させる。
ディープ・リテンション・ラーニング(RL)とコネクテッド・アンド・オートマチック・カー・テクノロジーの出現は、協調車線変更による高速道路のボトルネックにおけるモビリティとエネルギー効率を改善するための解決策となる。
本研究では,多エージェント深部RLパラダイムを用いた分散協調車線切替制御器を開発した。
本研究では, 交通量, 車両速度, 車両当たりの停止数, 燃料効率, 排出エミッションの観点から, 多エージェント深部RLによる協調車線変更は, 運転者にとって優れた性能を示すことを示した。
論文 参考訳(メタデータ) (2021-10-05T18:29:13Z) - Increasing Energy Efficiency of Massive-MIMO Network via Base Stations
Switching using Reinforcement Learning and Radio Environment Maps [3.781421673607642]
M-MIMO伝送はアンテナ数で高エネルギー消費が増加します。
本稿では,未利用BSのオン/オフによるEE改善について検討する。
論文 参考訳(メタデータ) (2021-03-08T21:57:13Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - Hierarchical Reinforcement Learning for Relay Selection and Power
Optimization in Two-Hop Cooperative Relay Network [7.5377621697101205]
本研究では,2ホップ協調型中継ネットワークにおいて,送信電力の制約を考慮に入れた停止確率最小化問題について検討する。
我々は、リレー選択と配電のための戦略を学ぶために強化学習(RL)手法を用いる。
階層型強化学習(HRL)フレームワークとトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-10T04:47:41Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。