論文の概要: A Lifetime Extended Energy Management Strategy for Fuel Cell Hybrid
Electric Vehicles via Self-Learning Fuzzy Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2302.06236v1
- Date: Mon, 13 Feb 2023 10:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:55:40.013041
- Title: A Lifetime Extended Energy Management Strategy for Fuel Cell Hybrid
Electric Vehicles via Self-Learning Fuzzy Reinforcement Learning
- Title(参考訳): 自己学習ファジィ強化学習による燃料電池ハイブリッド電気自動車の寿命延長型エネルギー管理戦略
- Authors: Liang Guo (PECASE, AMU), Zhongliang Li (FEMTO-ST, UTBM), Rachid Outbib
(PECASE, AMU)
- Abstract要約: 燃料電池ハイブリッド電気自動車のファジィ強化学習に基づくエネルギー管理戦略を提案する。
Fuzzy Q-learningはモデルなしの強化学習であり、環境と対話することで学習することができる。
ファジィ論理を適用してQラーニングの値関数を近似すると、連続状態やアクション空間の問題を解くことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling difficulty, time-varying model, and uncertain external inputs are
the main challenges for energy management of fuel cell hybrid electric
vehicles. In the paper, a fuzzy reinforcement learning-based energy management
strategy for fuel cell hybrid electric vehicles is proposed to reduce fuel
consumption, maintain the batteries' long-term operation, and extend the
lifetime of the fuel cells system. Fuzzy Q-learning is a model-free
reinforcement learning that can learn itself by interacting with the
environment, so there is no need for modeling the fuel cells system. In
addition, frequent startup of the fuel cells will reduce the remaining useful
life of the fuel cells system. The proposed method suppresses frequent fuel
cells startup by considering the penalty for the times of fuel cell startups in
the reward of reinforcement learning. Moreover, applying fuzzy logic to
approximate the value function in Q-Learning can solve continuous state and
action space problems. Finally, a python-based training and testing platform
verify the effectiveness and self-learning improvement of the proposed method
under conditions of initial state change, model change and driving condition
change.
- Abstract(参考訳): 燃料電池ハイブリッド電気自動車のエネルギー管理において、モデリングの困難さ、時間変動モデル、不確定な外部入力が主な課題である。
本稿では, 燃料電池ハイブリッド電気自動車のファジィ強化学習に基づくエネルギー管理戦略を提案し, 燃料消費の低減, 電池の長期運転の維持, 燃料電池システムの寿命を延長した。
ファジィQラーニングは、環境と相互作用して学習できるモデルなし強化学習であり、燃料電池システムのモデル化は不要である。
さらに、燃料電池の頻繁な起動は、燃料電池システムの残りの有用な寿命を減少させる。
提案手法は,強化学習の報奨として,燃料電池起動時のペナルティを考慮し,頻繁な燃料電池起動を抑制する。
さらに,q-learningにおける値関数近似にファジィ論理を適用することで,連続状態や動作空間の問題を解くことができる。
最後に、pythonベースのトレーニングおよびテストプラットフォームは、初期状態変化、モデル変更、運転条件変化の条件下で、提案手法の有効性と自己学習の改善を検証する。
関連論文リスト
- Unlocking Carbon Reduction Potential with Reinforcement Learning for the
Three-Dimensional Loading Capacitated Vehicle Routing Problem [54.43397200631224]
効率を上げるためのソリューションとして、協調車両ルーティングが提案されている。
現在の運用研究手法は、問題の大きさを増大させる非線形スケーリングに悩まされている。
約線形時間で3次元負荷容量化車両ルーティング問題を解くための強化学習モデルを開発した。
論文 参考訳(メタデータ) (2023-07-22T18:05:28Z) - Time to Market Reduction for Hydrogen Fuel Cell Stacks using Generative
Adversarial Networks [0.0]
燃料電池スタックの市場投入までの時間は、輸送と静止両方の将来のニーズを満たすために大幅に削減されなければならない。
ここでは、人工知能に基づく破壊的で高効率なデータ拡張アプローチを導入することで、開発時間を短縮する新しいコンセプトを提案する。
この結果により、市場で製品を導入する前のテスト時間を、数千から数時間に短縮できます。
論文 参考訳(メタデータ) (2022-12-22T14:27:19Z) - An Energy Consumption Model for Electrical Vehicle Networks via Extended
Federated-learning [50.85048976506701]
本稿では,フェデレートラーニングモデルに基づく不安度を測る新しい手法を提案する。
バッテリー消費を推定し、車両ネットワークにエネルギー効率の高いルートプランニングを提供する。
論文 参考訳(メタデータ) (2021-11-13T15:03:44Z) - Safe Model-based Off-policy Reinforcement Learning for Eco-Driving in
Connected and Automated Hybrid Electric Vehicles [3.5259944260228977]
本研究は,エコドライブ問題に対するセーフオフポジーモデルに基づく強化学習アルゴリズムを提案する。
提案アルゴリズムは, モデルフリーエージェントと比較して, 平均速度が高く, 燃費も良好である。
論文 参考訳(メタデータ) (2021-05-25T03:41:29Z) - Autonomous Charging of Electric Vehicle Fleets to Enhance Renewable
Generation Dispatchability [1.6251898162696201]
カリフォルニア州の発電能力の合計19%はPVユニットによって提供され、数ヶ月で、このエネルギーの10%以上が削減されます。
本研究では、電気自動車の充電調整による再生可能エネルギーの低減とシステムの柔軟性向上に向けた新しいアプローチを示す。
論文 参考訳(メタデータ) (2020-12-22T18:56:24Z) - Learning Time Reduction Using Warm Start Methods for a Reinforcement
Learning Based Supervisory Control in Hybrid Electric Vehicle Applications [6.728179095424962]
本研究では,HEVアプリケーションにおけるQ-ラーニングの学習イテレーションを削減し,温暖化開始法を利用した初期学習フェーズにおける燃料消費を改善することを目的とする。
その結果、提案したウォームスタートQ-ラーニングは、コールドスタートQ-ラーニングよりも68.8%少ないイテレーションを必要とすることがわかった。
論文 参考訳(メタデータ) (2020-10-27T19:32:44Z) - Energy Consumption and Battery Aging Minimization Using a Q-learning
Strategy for a Battery/Ultracapacitor Electric Vehicle [5.842691464468424]
本研究では,Qラーニングに基づく電池劣化とエネルギー消費を最小化するための戦略を提案する。
その結果,Q-ラーニング戦略はバッテリ劣化を13-20%遅くし,車両の走行距離を1.5-2%向上させることが示唆された。
論文 参考訳(メタデータ) (2020-10-27T07:59:54Z) - Mobile Cellular-Connected UAVs: Reinforcement Learning for Sky Limits [71.28712804110974]
本稿では,UAVの切断時間,ハンドオーバ速度,エネルギー消費を低減するため,MAB(Multi-armed bandit)アルゴリズムを提案する。
それぞれの性能指標(PI)が、適切な学習パラメータの範囲を採用することにより、どのように改善されるかを示す。
論文 参考訳(メタデータ) (2020-09-21T12:35:23Z) - Universal Battery Performance and Degradation Model for Electric
Aircraft [52.77024349608834]
電動垂直離着陸機(eVTOL)の設計、解析、運用には、Liイオン電池の性能の迅速かつ正確な予測が必要である。
我々は,eVTOLのデューティサイクルに特有の電池性能と熱的挙動のデータセットを生成する。
このデータセットを用いて,物理インフォームド機械学習を用いた電池性能・劣化モデル(Cellfit)を開発した。
論文 参考訳(メタデータ) (2020-07-06T16:10:54Z) - Model-Based Meta-Reinforcement Learning for Flight with Suspended
Payloads [69.21503033239985]
吊り下げられたペイロードの輸送は、自律的な航空車両にとって困難である。
接続後飛行データから数秒以内に変化力学のモデルを学習するメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-04-23T17:43:56Z) - Resource Management for Blockchain-enabled Federated Learning: A Deep
Reinforcement Learning Approach [54.29213445674221]
Federated Learning (BFL)は、機械学習モデル所有者(MLMO)が必要とするニューラルネットワークモデルを、モバイルデバイスが協調的にトレーニングすることを可能にする。
BFLの問題は、モバイルデバイスがシステムの寿命とトレーニング効率を低下させるエネルギーとCPUの制約を持っていることである。
我々は,Deep Reinforcement Learning (DRL) を用いて最適決定を導出することを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。