論文の概要: Offline Reinforcement Learning for Microgrid Voltage Regulation
- arxiv url: http://arxiv.org/abs/2505.09920v1
- Date: Thu, 15 May 2025 03:10:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.157589
- Title: Offline Reinforcement Learning for Microgrid Voltage Regulation
- Title(参考訳): マイクログリッド電圧制御のためのオフライン強化学習
- Authors: Shan Yang, Yongli Zhu,
- Abstract要約: 本稿では,太陽エネルギー導入によるマイクログリッド電圧制御のためのオフライン強化学習アルゴリズムについて述べる。
IEEE 33-busシステムにおける実験結果は、異なるオフラインデータセットに対する提案手法の有効性と有効性を示す。
- 参考スコア(独自算出の注目度): 9.903431113184395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a study on using different offline reinforcement learning algorithms for microgrid voltage regulation with solar power penetration. When environment interaction is unviable due to technical or safety reasons, the proposed approach can still obtain an applicable model through offline-style training on a previously collected dataset, lowering the negative impact of lacking online environment interactions. Experiment results on the IEEE 33-bus system demonstrate the feasibility and effectiveness of the proposed approach on different offline datasets, including the one with merely low-quality experience.
- Abstract(参考訳): 本稿では,太陽エネルギー導入によるマイクログリッド電圧制御のためのオフライン強化学習アルゴリズムについて述べる。
技術的あるいは安全性上の理由から環境相互作用が実行不可能な場合,提案手法は従来収集したデータセット上でオフラインスタイルのトレーニングを通じて適用可能なモデルを得ることができるため,オンライン環境相互作用の欠如による負の影響を低減できる。
IEEE 33-busシステムによる実験結果は、提案手法が低品質体験のみを含むさまざまなオフラインデータセットに対して実現可能であることを示すものである。
関連論文リスト
- Active Advantage-Aligned Online Reinforcement Learning with Offline Data [56.98480620108727]
A3 RLは、ポリシー改善を最適化するために、オンラインとオフラインの組み合わせからデータを積極的に選択する新しい方法である。
アクティブサンプリング戦略の有効性を検証する理論的保証を提供する。
論文 参考訳(メタデータ) (2025-02-11T20:31:59Z) - Online Control-Informed Learning [4.907545537403502]
本稿では,オンライン・コントロール・インフォームド・ラーニング・フレームワークを提案する。
任意のロボットを調整可能な最適制御系として考慮し,拡張カルマンフィルタ(EKF)に基づくオンラインパラメータ推定器を提案する。
提案手法は,データ中の雑音を効果的に管理することにより,学習の堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-10-04T21:03:16Z) - Energy-Guided Diffusion Sampling for Offline-to-Online Reinforcement Learning [13.802860320234469]
textbfEnergy-guided textbfDIffusion textbfSampling (EDIS)を紹介する。
EDISは拡散モデルを用いてオフラインデータセットから事前知識を抽出し、オンラインフェーズにおけるデータ生成の強化のためにエネルギー関数を用いてこの知識を蒸留する。
また,MuJoCo,AntMaze,Adroit環境において,経験的性能の20%向上が目覚ましい。
論文 参考訳(メタデータ) (2024-07-17T09:56:51Z) - Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Interactive Graph Convolutional Filtering [79.34979767405979]
インタラクティブ・レコメンダ・システム(IRS)は、パーソナライズされた記事レコメンデーション、ソーシャルメディア、オンライン広告など、さまざまな領域でますます利用されている。
これらの問題は、コールドスタート問題とデータスポーサリティ問題によって悪化する。
既存のMulti-Armed Bandit手法は、慎重に設計された探査戦略にもかかわらず、しばしば初期の段階で満足な結果を提供するのに苦労する。
提案手法は,ユーザとアイテム間の協調フィルタリング性能を向上させるため,協調フィルタリングをグラフモデルに拡張する。
論文 参考訳(メタデータ) (2023-09-04T09:02:31Z) - Reward-agnostic Fine-tuning: Provable Statistical Benefits of Hybrid
Reinforcement Learning [66.43003402281659]
オンラインデータ収集を効率的に活用してオフラインデータセットを強化し補完する方法に、中心的な疑問が浮かび上がっている。
我々は、純粋なオフラインRLと純粋なオンラインRLという、両方の世界のベストを打ち負かす3段階のハイブリッドRLアルゴリズムを設計する。
提案アルゴリズムは,データ収集時に報酬情報を必要としない。
論文 参考訳(メタデータ) (2023-05-17T15:17:23Z) - Strictly Batch Imitation Learning by Energy-based Distribution Matching [104.33286163090179]
すなわち、強化信号へのアクセスがなく、遷移力学の知識がなく、環境とのさらなる相互作用もない。
1つの解決策は、既存のアルゴリズムをオフライン環境で動作させるために、見習いの学習に適合させることである。
しかし、このようなアプローチは、政治外の評価やオフラインモデルの推定に大きく依存しており、間接的で非効率である可能性がある。
優れたソリューションは、ポリシーを明示的にパラメータ化し、ロールアウトダイナミクスから暗黙的に学習し、完全にオフラインで運用できるべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2020-06-25T03:27:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。