論文の概要: Sequence Aware SAC Control for Engine Fuel Consumption Optimization in Electrified Powertrain
- arxiv url: http://arxiv.org/abs/2508.04874v1
- Date: Wed, 06 Aug 2025 20:53:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.639917
- Title: Sequence Aware SAC Control for Engine Fuel Consumption Optimization in Electrified Powertrain
- Title(参考訳): 電動パワートレインにおけるエンジン燃費最適化のためのSAC制御を意識したシーケンス
- Authors: Wafeeq Jaleel, Md Ragib Rownak, Athar Hanif, Sidra Ghayour Bhatti, Qadeer Ahmed,
- Abstract要約: 直列HEVにおけるエンジン制御を最適化するソフトアクター・クリティカル(SAC)アルゴリズムに基づく新しい強化学習フレームワークを提案する。
我々は、様々な初期電池状態、駆動サイクル期間、電力需要、入力シーケンスの長さでモデルを訓練する。
実験により、DTベースのアクターとGRUベースの批評家のSACエージェントは、燃料節約における動的プログラミング(DP)の1.8%以内であることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As hybrid electric vehicles (HEVs) gain traction in heavy-duty trucks, adaptive and efficient energy management is critical for reducing fuel consumption while maintaining battery charge for long operation times. We present a new reinforcement learning (RL) framework based on the Soft Actor-Critic (SAC) algorithm to optimize engine control in series HEVs. We reformulate the control task as a sequential decision-making problem and enhance SAC by incorporating Gated Recurrent Units (GRUs) and Decision Transformers (DTs) into both actor and critic networks to capture temporal dependencies and improve planning over time. To evaluate robustness and generalization, we train the models under diverse initial battery states, drive cycle durations, power demands, and input sequence lengths. Experiments show that the SAC agent with a DT-based actor and GRU-based critic was within 1.8% of Dynamic Programming (DP) in fuel savings on the Highway Fuel Economy Test (HFET) cycle, while the SAC agent with GRUs in both actor and critic networks, and FFN actor-critic agent were within 3.16% and 3.43%, respectively. On unseen drive cycles (US06 and Heavy Heavy-Duty Diesel Truck (HHDDT) cruise segment), generalized sequence-aware agents consistently outperformed feedforward network (FFN)-based agents, highlighting their adaptability and robustness in real-world settings.
- Abstract(参考訳): 大型トラックにおけるハイブリッド電気自動車(HEV)の推進力向上に伴い, 電池充電を長期にわたって維持しつつ, 燃費削減に適応的かつ効率的なエネルギー管理が重要である。
直列HEVにおけるエンジン制御を最適化するSoft Actor-Critic(SAC)アルゴリズムに基づく新しい強化学習(RL)フレームワークを提案する。
GRU(Gated Recurrent Units)とDT(Decision Transformers)をアクターネットワークと批評家ネットワークに組み込むことで、時間的依存を捕捉し、時間の経過とともに計画を改善することで、制御タスクを逐次意思決定問題として再編成し、SACを強化する。
頑健性と一般化性を評価するため, 様々な初期電池状態, 駆動サイクル期間, 電力需要, 入力シーケンスの長さでモデルを訓練する。
実験の結果、DTベースのアクターとGRUベースの批評家のSACエージェントはハイウェイ燃料経済テスト(HFET)サイクルでの燃料節約における動的プログラミング(DP)の1.8%以内であり、GRUと批評家ネットワークのSACエージェントはそれぞれ3.16%と3.43%であった。
目に見えないドライブサイクル(US06とHHDDT)では、一般的なシークエンス対応エージェントがフィードフォワードネットワーク(FFN)ベースのエージェントより一貫して優れており、現実の環境での適合性と堅牢性を強調している。
関連論文リスト
- DriveTransformer: Unified Transformer for Scalable End-to-End Autonomous Driving [62.62464518137153]
DriveTransformerは、スケールアップを簡単にするためのシンプルなE2E-ADフレームワークである。
タスク・セルフ・アテンション、センサー・クロス・アテンション、時間的クロス・アテンションという3つの統合された操作で構成されている。
シミュレーションされたクローズドループベンチマークBench2Driveと、FPSの高い実世界のオープンループベンチマークnuScenesの両方で、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-07T11:41:18Z) - Function Approximation for Reinforcement Learning Controller for Energy from Spread Waves [69.9104427437916]
マルチジェネレータ・ウェーブ・エナジー・コンバータ(WEC)は、スプレッド・ウェーブと呼ばれる異なる方向から来る複数の同時波を処理しなければならない。
これらの複雑な装置は、エネルギー捕獲効率、維持を制限する構造的ストレスの低減、高波に対する積極的な保護という複数の目的を持つコントローラを必要とする。
本稿では,システム力学のシーケンシャルな性質をモデル化する上で,ポリシーと批判ネットワークの異なる機能近似について検討する。
論文 参考訳(メタデータ) (2024-04-17T02:04:10Z) - Reinforcement Learning with Elastic Time Steps [14.838483990647697]
Multi-Objective Soft Elastic Actor-Critic (MOSEAC) は、弾性時間ステップを用いて制御周波数を動的に調整する非政治アクター批判アルゴリズムである。
我々は,MOSEACが理論レベルで収束し,安定なポリシーを生成できることを示し,実時間3Dレースゲームにおける結果を検証する。
論文 参考訳(メタデータ) (2024-02-22T20:49:04Z) - Deployable Reinforcement Learning with Variable Control Rate [14.838483990647697]
可変制御率を持つ強化学習(RL)の変種を提案する。
このアプローチでは、ポリシーは、エージェントが取るべきアクションと、そのアクションに関連する時間ステップの期間を決定する。
ニュートンキネマティクスを用いたエージェントを駆動する概念実証シミュレーションによりSEACの有効性を示す。
論文 参考訳(メタデータ) (2024-01-17T15:40:11Z) - Distributional Soft Actor-Critic with Three Refinements [47.46661939652862]
強化学習(Reinforcement Learning, RL)は、複雑な意思決定と制御タスクの解決に顕著な成功を収めた。
多くのモデルなしRLアルゴリズムは、不正確な値推定による性能劣化を経験する。
本稿では,これらの制限を克服し,Q値推定精度を向上させるために,DSACv1に3つの重要な改良点を導入する。
論文 参考訳(メタデータ) (2023-10-09T16:52:48Z) - Federated Reinforcement Learning for Electric Vehicles Charging Control
on Distribution Networks [42.04263644600909]
マルチエージェント深部強化学習(MADRL)はEV充電制御において有効であることが証明されている。
既存のMADRLベースのアプローチでは、配電ネットワークにおけるEV充電/放電の自然な電力フローを考慮できない。
本稿では,マルチEV充電/放電と最適電力流で動作する放射分布ネットワーク(RDN)を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T05:34:46Z) - Mixed-Integer Optimal Control via Reinforcement Learning: A Case Study on Hybrid Electric Vehicle Energy Management [2.0762193863564926]
本稿では,2つの遅延深い決定論的アクターQ(TD3AQ)を最適制御問題に適用するハイブリッドアクション強化学習(HARL)アルゴリズムを提案する。
TD3AQはアクター批判とQ-ラーニングの両方の利点を組み合わせ、離散的かつ連続的なアクション空間を同時に扱うことができる。
提案手法はプラグインハイブリッド電気自動車(PHEV)のエネルギー管理問題に対して評価される。
論文 参考訳(メタデータ) (2023-05-02T14:42:21Z) - Residual Policy Learning for Powertrain Control [2.064612766965483]
本稿では、リザーブポリシー学習(RPL)エージェントを使用して、デフォルトのパワートレインコントローラにリザーブアクションを提供するアクティブドライバ支援手法の概要を述べる。
各種の自動車追従シナリオにおける模擬商用車両の実装により,RPLエージェントは,ベースラインのソースポリシーと比較して急速に改善されたポリシーを学習することがわかった。
論文 参考訳(メタデータ) (2022-12-15T04:22:21Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Skip Training for Multi-Agent Reinforcement Learning Controller for
Industrial Wave Energy Converters [94.84709449845352]
近年のウェーブ・エナジー・コンバータ(WEC)は、発電を最大化するために複数の脚と発電機を備えている。
従来のコントローラは複雑な波のパターンを捕捉する制限を示しており、コントローラはエネルギー捕獲を効率的に最大化する必要がある。
本稿では,従来のスプリングダンパよりも優れたマルチエージェント強化学習コントローラ(MARL)を提案する。
論文 参考訳(メタデータ) (2022-09-13T00:20:31Z) - A Pulse-and-Glide-driven Adaptive Cruise Control System for Electric
Vehicle [1.8305518556327907]
PGACCS (Pulse-and-Glide-driven Adaptive Cruise Control System) は電気自動車において有望な選択肢である。
本稿では、PGACCSと再生ブレーキの性能評価に基づいて、再生ブレーキとACCSを備えたEVのシミュレーションモデルを構築した。
PnG最適化の結果、PGACCSのPnG運転は従来のACCSのCC運転と比較して、EVの28.3%のエネルギーコストを削減できた。
論文 参考訳(メタデータ) (2022-05-18T01:33:47Z) - Data-Driven Transferred Energy Management Strategy for Hybrid Electric
Vehicles via Deep Reinforcement Learning [3.313774035672581]
本稿では,DRL法と転写学習(TL)を併用したリアルタイムEMSを提案する。
関連するEMSは、Transport Secure Data Centerから収集された実世界の運転サイクルデータセットから導出され、評価される。
シミュレーションの結果, DRLをベースとしたEMSは, 時間消費を効果的に低減し, 制御性能を保証できることが示唆された。
論文 参考訳(メタデータ) (2020-09-07T17:53:07Z) - Transfer Deep Reinforcement Learning-enabled Energy Management Strategy
for Hybrid Tracked Vehicle [8.327437591702163]
本稿では、深部強化学習(DRL)と伝達学習(TL)を組み合わせたハイブリッド電気自動車の適応エネルギー管理戦略を提案する。
退屈なトレーニング時間でDRLの欠陥に対処することを目的としている。
DRLおよびTL対応制御ポリシは、エネルギー効率を向上し、システム性能を向上させることができる。
論文 参考訳(メタデータ) (2020-07-16T23:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。