論文の概要: Adaptive Energy Management for Real Driving Conditions via Transfer
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2007.12560v1
- Date: Fri, 24 Jul 2020 15:06:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 07:14:26.730875
- Title: Adaptive Energy Management for Real Driving Conditions via Transfer
Reinforcement Learning
- Title(参考訳): 伝達強化学習による実走行条件の適応的エネルギー管理
- Authors: Teng Liu, Wenhao Tan, Xiaolin Tang, Jiaxin Chen, Dongpu Cao
- Abstract要約: 本稿では, 並列トポロジを用いたハイブリッド電気自動車(HEV)における伝達強化学習(RL)に基づく適応エネルギー管理手法を提案する。
上位レベルは、駆動サイクル変換(DCT)を介してRLフレームワークのQ値テーブルを変換する方法を特徴付ける。
低レベルは、変換されたQ値テーブルとTPMで対応する制御戦略を設定する方法を決定する。
- 参考スコア(独自算出の注目度): 19.383907178714345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article proposes a transfer reinforcement learning (RL) based adaptive
energy managing approach for a hybrid electric vehicle (HEV) with parallel
topology. This approach is bi-level. The up-level characterizes how to
transform the Q-value tables in the RL framework via driving cycle
transformation (DCT). Especially, transition probability matrices (TPMs) of
power request are computed for different cycles, and induced matrix norm (IMN)
is employed as a critical criterion to identify the transformation differences
and to determine the alteration of the control strategy. The lower-level
determines how to set the corresponding control strategies with the transformed
Q-value tables and TPMs by using model-free reinforcement learning (RL)
algorithm. Numerical tests illustrate that the transferred performance can be
tuned by IMN value and the transfer RL controller could receive a higher fuel
economy. The comparison demonstrates that the proposed strategy exceeds the
conventional RL approach in both calculation speed and control performance.
- Abstract(参考訳): 本稿では,並列トポロジを持つハイブリッド電気自動車 (hev) のためのトランスファー強化学習(rl)に基づく適応エネルギー管理手法を提案する。
このアプローチは2レベルです。
アップレベルは drive cycle transformation (dct) を通じて rl フレームワークの q-値テーブルを変換する方法を特徴付ける。
特に、電力要求の遷移確率行列(TPM)を異なるサイクルで計算し、誘導行列ノルム(IMN)を臨界基準として、変換の違いを特定し、制御戦略の変更を決定する。
低レベルは、モデルフリー強化学習(RL)アルゴリズムを用いて、変換されたQ値テーブルとTPMで対応する制御戦略を設定する方法を決定する。
数値実験により、移動性能はIMN値で調整でき、移動RL制御器はより高い燃費を得られることが示された。
提案手法は計算速度と制御性能の両面で従来のRL手法より優れていることを示す。
関連論文リスト
- Data-driven modeling and supervisory control system optimization for plug-in hybrid electric vehicles [16.348774515562678]
プラグインハイブリッド電気自動車(PHEV)のための学習型インテリジェントエネルギー管理システムは,効率的なエネルギー利用の実現に不可欠である。
彼らのアプリケーションは現実世界でシステム信頼性の課題に直面しており、元の機器メーカー(OEM)が広く受け入れられることを防ぐ。
本稿では,水平延長型強化学習(RL)に基づくエネルギー管理と等価消費最小化戦略(ECMS)を組み合わせた実車用アプリケーション指向制御フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T13:04:42Z) - Rethinking Transformers in Solving POMDPs [47.14499685668683]
本稿では、部分的に観測可能なマルコフ決定プロセス(POMDP)における一般的なアーキテクチャ、すなわちトランスフォーマーの有効性を精査する。
Transformersがモデル化に苦労する正規言語は、POMDPに再現可能である。
このことはトランスフォーマーがPOMDP固有の帰納バイアスを学習する上で大きな課題となる。
論文 参考訳(メタデータ) (2024-05-27T17:02:35Z) - Q-value Regularized Transformer for Offline Reinforcement Learning [70.13643741130899]
オフライン強化学習(RL)における最先端化のためのQ値正規化変換器(QT)を提案する。
QTはアクション値関数を学習し、条件付きシーケンスモデリング(CSM)のトレーニング損失にアクション値を最大化する用語を統合する
D4RLベンチマークデータセットの実証評価は、従来のDP法やCSM法よりもQTの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-05-27T12:12:39Z) - Rethinking Decision Transformer via Hierarchical Reinforcement Learning [54.3596066989024]
決定変換器(Decision Transformer, DT)は、強化学習(RL)における変換器アーキテクチャの最近の進歩を活用する革新的なアルゴリズムである。
本稿では,階層RLのレンズを用いたシーケンシャル意思決定のための汎用シーケンスモデリングフレームワークを提案する。
DTは、高レベルかつ低レベルなポリシーを選択することで、このフレームワークの特別なケースとして現れ、これらの選択の潜在的な失敗について議論する。
論文 参考訳(メタデータ) (2023-11-01T03:32:13Z) - On Transforming Reinforcement Learning by Transformer: The Development
Trajectory [97.79247023389445]
Transformerは元々自然言語処理用に開発されたもので、コンピュータビジョンでも大きな成功を収めている。
既存の開発をアーキテクチャ拡張と軌道最適化の2つのカテゴリに分類する。
ロボット操作,テキストベースのゲーム,ナビゲーション,自律運転におけるTRLの主な応用について検討する。
論文 参考訳(メタデータ) (2022-12-29T03:15:59Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - Decision Transformer: Reinforcement Learning via Sequence Modeling [102.86873656751489]
本稿では,シーケンスモデリング問題として強化学習(RL)を抽象化するフレームワークを提案する。
本稿では,RLを条件付きシーケンスモデルとして扱うアーキテクチャであるDecision Transformerを提案する。
その単純さにもかかわらず、Decision Transformerは、Atari、OpenAI Gym、Key-to-Doorタスク上での最先端のオフラインRLベースラインのパフォーマンスと一致または超過する。
論文 参考訳(メタデータ) (2021-06-02T17:53:39Z) - Data-Driven Transferred Energy Management Strategy for Hybrid Electric
Vehicles via Deep Reinforcement Learning [3.313774035672581]
本稿では,DRL法と転写学習(TL)を併用したリアルタイムEMSを提案する。
関連するEMSは、Transport Secure Data Centerから収集された実世界の運転サイクルデータセットから導出され、評価される。
シミュレーションの結果, DRLをベースとしたEMSは, 時間消費を効果的に低減し, 制御性能を保証できることが示唆された。
論文 参考訳(メタデータ) (2020-09-07T17:53:07Z) - An Intelligent Control Strategy for buck DC-DC Converter via Deep
Reinforcement Learning [1.4502611532302039]
定電力負荷(CPL)を有するバックDC-DCコンバータの革新的な知的制御戦略を初めて構築する。
DC-DCコンバータでは、マルコフ決定プロセス(MDP)モデルとディープQネットワーク(DQN)アルゴリズムが定義される。
エージェント-環境相互作用を調整するために,モデルフリーの深層強化学習(DRL)制御戦略を適切に設計する。
論文 参考訳(メタデータ) (2020-08-11T06:38:53Z) - Transfer Deep Reinforcement Learning-enabled Energy Management Strategy
for Hybrid Tracked Vehicle [8.327437591702163]
本稿では、深部強化学習(DRL)と伝達学習(TL)を組み合わせたハイブリッド電気自動車の適応エネルギー管理戦略を提案する。
退屈なトレーニング時間でDRLの欠陥に対処することを目的としている。
DRLおよびTL対応制御ポリシは、エネルギー効率を向上し、システム性能を向上させることができる。
論文 参考訳(メタデータ) (2020-07-16T23:39:34Z) - Transferred Energy Management Strategies for Hybrid Electric Vehicles
Based on Driving Conditions Recognition [16.346064265993782]
エネルギー管理戦略(EMS)は、省エネルギーと排出削減の可能性を決定する。
本研究は, 強化学習法と駆動条件認識を組み合わせることで, 並列HEV用トランスポートEMSを提案する。
論文 参考訳(メタデータ) (2020-07-16T13:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。