論文の概要: Learning-Augmented Scheduling for Solar-Powered Electric Vehicle
Charging
- arxiv url: http://arxiv.org/abs/2311.05941v1
- Date: Fri, 10 Nov 2023 08:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 15:31:03.798522
- Title: Learning-Augmented Scheduling for Solar-Powered Electric Vehicle
Charging
- Title(参考訳): 太陽光発電充電のための学習強化スケジューリング
- Authors: Tongxin Li
- Abstract要約: 我々は、ソーラーパネルとバッテリーを備えた電気自動車(EV)の充電をスケジューリングする複雑な課題に取り組む。
強化学習(RL)やモデル予測制御(MPC)といった従来のスケジューリング手法では、OODデータに直面すると満足な結果が得られないことが多い。
本稿では,強化学習政策の性能に基づいて,動的ロバスト性予算をリアルタイムで適用した新しい学習強化政策を提案する。
- 参考スコア(独自算出の注目度): 1.898218128610831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We tackle the complex challenge of scheduling the charging of electric
vehicles (EVs) equipped with solar panels and batteries, particularly under
out-of-distribution (OOD) conditions. Traditional scheduling approaches, such
as reinforcement learning (RL) and model predictive control (MPC), often fail
to provide satisfactory results when faced with OOD data, struggling to balance
robustness (worst-case performance) and consistency (near-optimal average
performance). To address this gap, we introduce a novel learning-augmented
policy. This policy employs a dynamic robustness budget, which is adapted in
real-time based on the reinforcement learning policy's performance.
Specifically, it leverages the temporal difference (TD) error, a measure of the
learning policy's prediction accuracy, to assess the trustworthiness of the
machine-learned policy. This method allows for a more effective balance between
consistency and robustness in EV charging schedules, significantly enhancing
adaptability and efficiency in real-world, unpredictable environments. Our
results demonstrate that this approach markedly improves scheduling
effectiveness and reliability, particularly in OOD contexts, paving the way for
more resilient and adaptive EV charging systems.
- Abstract(参考訳): 我々は、ソーラーパネルとバッテリーを搭載した電気自動車(ev)の充電をスケジューリングする複雑な課題に特にood(out-of-distribution)条件下で対処する。
強化学習(RL)やモデル予測制御(MPC)といった従来のスケジューリング手法では、OODデータに直面すると満足な結果が得られず、堅牢性と一貫性(最適平均性能に近い)のバランスがとれない場合が多い。
このギャップに対処するために,新しい学習指導方針を提案する。
この方針は動的堅牢性予算を採用しており、強化学習政策のパフォーマンスに基づいてリアルタイムで適応される。
具体的には、学習方針の予測精度の尺度である時間差(td)誤差を利用して、機械学習方針の信頼性を評価する。
この方法は、EV充電スケジュールにおける一貫性と堅牢性の間のより効果的なバランスを可能にし、現実の予測不可能な環境における適応性と効率を大幅に向上させる。
提案手法は,特にOODコンテキストにおけるスケジューリング効率と信頼性を著しく向上し,よりレジリエンスで適応的なEV充電システムの実現に寄与することを示す。
関連論文リスト
- Projected Off-Policy Q-Learning (POP-QL) for Stabilizing Offline
Reinforcement Learning [57.83919813698673]
Projected Off-Policy Q-Learning (POP-QL) は、政治外のサンプルを同時に重み付け、分散を防止し、価値近似誤差を減らすためにポリシーを制約する新しいアクタ批判アルゴリズムである。
我々の実験では、POP-QLは標準ベンチマーク上での競合性能を示すだけでなく、データ収集ポリシーがかなり最適化されていないタスクにおいて競合するメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-11-25T00:30:58Z) - Deep learning based on Transformer architecture for power system
short-term voltage stability assessment with class imbalance [13.3281651745186]
実用的応用では、乱れ後の短期電圧不安定性が最小限であり、重大なクラス不均衡問題を引き起こす。
この課題に対処するために,Transformer ベースの STVSA 手法を提案する。
不均衡データセットの負の影響に対処するために、この研究は勾配ペナルティを持つ条件付きワッサーシュタイン生成逆数ネットワークを用いる。
論文 参考訳(メタデータ) (2023-10-18T03:36:10Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled
Prescriptive Maintenance Framework [62.73424880653293]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - Statistically Efficient Variance Reduction with Double Policy Estimation
for Off-Policy Evaluation in Sequence-Modeled Reinforcement Learning [53.97273491846883]
本稿では、オフラインシーケンスモデリングとオフライン強化学習をダブルポリシー推定と組み合わせたRLアルゴリズムDPEを提案する。
D4RLベンチマークを用いて,OpenAI Gymの複数のタスクで本手法を検証した。
論文 参考訳(メタデータ) (2023-08-28T20:46:07Z) - DA-LSTM: A Dynamic Drift-Adaptive Learning Framework for Interval Load
Forecasting with LSTM Networks [1.3342521220589318]
ドリフト等級閾値は、ドリフトを識別するための変化検出方法を設計するために定義されるべきである。
本稿では,負荷予測モデルの性能向上を図るための動的ドリフト適応長短期メモリ(DA-LSTM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-15T16:26:03Z) - Efficient Deep Learning of Robust, Adaptive Policies using Tube
MPC-Guided Data Augmentation [42.66792060626531]
既存のロバストで適応的なコントローラは、オンライン上の重い計算を犠牲にして、素晴らしいパフォーマンスを達成することができる。
我々は、MPCからの堅牢なポリシー学習のための既存の効率的なImitation Learning(IL)アルゴリズムを拡張し、挑戦的なモデル/環境の不確実性に対応するポリシーを学習する能力を拡張した。
論文 参考訳(メタデータ) (2023-03-28T02:22:47Z) - Active Learning of Discrete-Time Dynamics for Uncertainty-Aware Model
Predictive Control [49.60520501097199]
本稿では,非線形ロボットシステムの力学を積極的にモデル化する自己教師型学習手法を提案する。
我々のアプローチは、目に見えない飛行条件に一貫して適応することで、高いレジリエンスと一般化能力を示す。
論文 参考訳(メタデータ) (2022-10-23T00:45:05Z) - Optimized cost function for demand response coordination of multiple EV
charging stations using reinforcement learning [6.37470346908743]
我々は、複数の充電ステーションを同時に調整するマルコフ決定プロセス(MDP)に基づいて、RLに関する以前の研究に基づいて構築する。
我々は、基本的に、学習した制御ポリシーに対して、柔軟性を提供しない充電需要を常に満たすよう強制するコスト関数の改善を提案する。
提案したバッチRLのQ-iteration実装を,実世界のデータを用いて,オリジナル(コスト)のQ-iteration実装と厳密に比較する。
論文 参考訳(メタデータ) (2022-03-03T11:22:27Z) - Efficient Representation for Electric Vehicle Charging Station
Operations using Reinforcement Learning [5.815007821143811]
我々は、EV充電の緊急時、すなわち遅延値に基づくアグリゲーションスキームを開発する。
EVCSの総充電パワーのみを考慮するために、最低遅延第一規則(LLF)が採用されている。
また,同じ最適政策を達成するための等価な状態アグリゲーションを提案する。
論文 参考訳(メタデータ) (2021-08-07T00:34:48Z) - Uncertainty Weighted Actor-Critic for Offline Reinforcement Learning [63.53407136812255]
オフライン強化学習は、探索を必要とせずに、事前に収集された静的データセットから効果的なポリシーを学ぶことを約束する。
既存のQラーニングとアクター批判に基づくオフポリティクスRLアルゴリズムは、アウト・オブ・ディストリビューション(OOD)アクションや状態からのブートストラップ時に失敗する。
我々は,OOD状態-動作ペアを検出し,トレーニング目標への貢献度を下げるアルゴリズムであるUncertainty Weighted Actor-Critic (UWAC)を提案する。
論文 参考訳(メタデータ) (2021-05-17T20:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。