論文の概要: A Comparative Study of Deep Reinforcement Learning-based Transferable
Energy Management Strategies for Hybrid Electric Vehicles
- arxiv url: http://arxiv.org/abs/2202.11514v1
- Date: Tue, 22 Feb 2022 03:18:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 07:36:24.560725
- Title: A Comparative Study of Deep Reinforcement Learning-based Transferable
Energy Management Strategies for Hybrid Electric Vehicles
- Title(参考訳): ハイブリッド電気自動車の深部強化学習に基づく伝達可能エネルギー管理手法の比較検討
- Authors: Jingyi Xu, Zirui Li, Li Gao, Junyi Ma, Qi Liu and Yanan Zhao
- Abstract要約: ハイブリッド電気自動車(HEV)におけるエネルギマネジメント戦略(EMS)の課題
運転サイクルを変更すると、ネットワークが再トレーニングされる。
EMSを選択するより効率的な方法は、深層強化学習(DRL)と移行学習を組み合わせることで、あるドメインの知識を他の新しいドメインに転送することができる。
- 参考スコア(独自算出の注目度): 26.32065215070386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deep reinforcement learning-based energy management strategies (EMS) has
become a promising solution for hybrid electric vehicles (HEVs). When driving
cycles are changed, the network will be retrained, which is a time-consuming
and laborious task. A more efficient way of choosing EMS is to combine deep
reinforcement learning (DRL) with transfer learning, which can transfer
knowledge of one domain to the other new domain, making the network of the new
domain reach convergence values quickly. Different exploration methods of RL,
including adding action space noise and parameter space noise, are compared
against each other in the transfer learning process in this work. Results
indicate that the network added parameter space noise is more stable and faster
convergent than the others. In conclusion, the best exploration method for
transferable EMS is to add noise in the parameter space, while the combination
of action space noise and parameter space noise generally performs poorly. Our
code is available at https://github.com/BIT-XJY/RL-based-Transferable-EMS.git.
- Abstract(参考訳): 深層強化学習に基づくエネルギー管理戦略(EMS)はハイブリッド電気自動車(HEV)にとって有望なソリューションとなっている。
運転サイクルが変更されると、ネットワークが再トレーニングされる。
EMSを選択するより効率的な方法は、深層強化学習(DRL)と転送学習を組み合わせることで、あるドメインの知識を他のドメインに転送し、新しいドメインのネットワークが収束値に素早く到達できるようにすることである。
本研究におけるトランスファー学習過程において、動作空間ノイズとパラメータ空間ノイズの付加を含むrlの異なる探索手法を比較検討した。
その結果,ネットワーク付加パラメータ空間雑音は,他よりも安定で収束が速いことがわかった。
結論として, トランスファー可能なemsの最適探索方法はパラメータ空間にノイズを加えることであり, 動作空間ノイズとパラメータ空間ノイズの組み合わせは一般的には不十分である。
私たちのコードはhttps://github.com/BIT-XJY/RL-based-Transferable-EMS.gitで利用可能です。
関連論文リスト
- ODRL: A Benchmark for Off-Dynamics Reinforcement Learning [59.72217833812439]
我々は、オフダイナミックスRL法を評価するための最初のベンチマークであるODRLを紹介する。
ODRLには、4つの実験的な設定が含まれており、ソースドメインとターゲットドメインはオンラインまたはオフラインにすることができる。
我々は、様々な力学シフトにまたがる普遍的な優位性を持つ手法が存在しないことを示す広範なベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-10-28T05:29:38Z) - Causality-Driven Reinforcement Learning for Joint Communication and Sensing [4.165335263540595]
我々は,mMIMOベースのJCAS環境に対する因果関係を介入し,発見することができる因果関係認識型RLエージェントを提案する。
我々は、RLに基づくJCASの因果発見を実現するために、状態依存行動次元選択戦略を用いる。
論文 参考訳(メタデータ) (2024-09-07T07:15:57Z) - Online Pseudo-Zeroth-Order Training of Neuromorphic Spiking Neural Networks [69.2642802272367]
スパイクニューラルネットワーク(SNN)を用いた脳誘発ニューロモルフィックコンピューティングは、有望なエネルギー効率の計算手法である。
最近の手法では、空間的および時間的バックプロパゲーション(BP)を利用しており、ニューロモルフィックの性質に固執していない。
オンライン擬似ゼロオーダートレーニング(OPZO)を提案する。
論文 参考訳(メタデータ) (2024-07-17T12:09:00Z) - Solving Continual Offline Reinforcement Learning with Decision Transformer [78.59473797783673]
連続的オフライン強化学習(CORL)は、連続的およびオフライン的な強化学習を組み合わせたものである。
Actor-Critic構造とエクスペリエンス・リプレイ(ER)を取り入れた既存の手法は、分散シフト、低効率、知識共有の弱さに悩まされている。
我々は,マルチヘッドDT (MH-DT) とローランク適応DT (LoRA-DT) を導入し,DTの無視問題を緩和する。
論文 参考訳(メタデータ) (2024-01-16T16:28:32Z) - An advantage based policy transfer algorithm for reinforcement learning
with metrics of transferability [6.660458629649826]
強化学習(Reinforcement Learning, RL)は, 複雑・高次元環境における逐次的意思決定を可能にする。
トランスファーRLアルゴリズムは、1つまたは複数のソース環境からターゲット環境への知識の転送に使用できる。
本稿では、固定されたドメイン環境に対する非政治アドバンテージベースのポリシー転送アルゴリズムであるAPT-RLを提案する。
論文 参考訳(メタデータ) (2023-11-12T04:25:53Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Network Slicing via Transfer Learning aided Distributed Deep
Reinforcement Learning [7.126310378721161]
本稿では, セル間リソース分割のためのマルチエージェント間類似性解析を用いた多エージェント深部強化学習(MADRL)手法を提案する。
提案手法は, 性能, 収束速度, サンプル効率の観点から, 最先端のソリューションよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-09T10:55:13Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Increasing Energy Efficiency of Massive-MIMO Network via Base Stations
Switching using Reinforcement Learning and Radio Environment Maps [3.781421673607642]
M-MIMO伝送はアンテナ数で高エネルギー消費が増加します。
本稿では,未利用BSのオン/オフによるEE改善について検討する。
論文 参考訳(メタデータ) (2021-03-08T21:57:13Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - Hierarchical Reinforcement Learning for Relay Selection and Power
Optimization in Two-Hop Cooperative Relay Network [7.5377621697101205]
本研究では,2ホップ協調型中継ネットワークにおいて,送信電力の制約を考慮に入れた停止確率最小化問題について検討する。
我々は、リレー選択と配電のための戦略を学ぶために強化学習(RL)手法を用いる。
階層型強化学習(HRL)フレームワークとトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-10T04:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。