論文の概要: A Reinforcement Learning-based Volt-VAR Control Dataset and Testing
Environment
- arxiv url: http://arxiv.org/abs/2204.09500v1
- Date: Wed, 20 Apr 2022 14:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 16:41:17.376697
- Title: A Reinforcement Learning-based Volt-VAR Control Dataset and Testing
Environment
- Title(参考訳): 強化学習に基づくVolt-VAR制御データセットとテスト環境
- Authors: Yuanqi Gao, Nanpeng Yu
- Abstract要約: 本稿では,RLに基づくVVCアルゴリズム研究のための,サンプル効率,安全性,ロバストなオープンソースのデータセット群を紹介する。
データセットは、2つのコンポーネントで構成されている。1. IEEE-13、123、および8500バスのテストフィード用のGymライクなVVCテスト環境。
- 参考スコア(独自算出の注目度): 4.386026071380442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To facilitate the development of reinforcement learning (RL) based power
distribution system Volt-VAR control (VVC), this paper introduces a suite of
open-source datasets for RL-based VVC algorithm research that is sample
efficient, safe, and robust. The dataset consists of two components: 1. a
Gym-like VVC testing environment for the IEEE-13, 123, and 8500-bus test
feeders and 2. a historical operational dataset for each of the feeders.
Potential users of the dataset and testing environment could first train an
sample-efficient off-line (batch) RL algorithm on the historical dataset and
then evaluate the performance of the trained RL agent on the testing
environments. This dataset serves as a useful testbed to conduct RL-based VVC
research mimicking the real-world operational challenges faced by electric
utilities. Meanwhile, it allows researchers to conduct fair performance
comparisons between different algorithms.
- Abstract(参考訳): 本稿では,RLに基づく電力分配システムVolt-VAR(Volt-VAR Control)の開発を容易にするために,サンプル効率,安全性,ロバスト性を備えたRLベースのVVCアルゴリズム研究のための一連のオープンソースデータセットを提案する。
データセットは2つのコンポーネントから構成される。
1.ieee-13, 123, 8500バステストフィーダ用ジム型vvcテスト環境
2. 供給者毎の履歴運用データセット。
データセットとテスト環境の潜在的ユーザは、まず、過去のデータセット上でサンプル効率のよいオフライン(バッチ)RLアルゴリズムをトレーニングし、その後、テスト環境でトレーニングされたRLエージェントのパフォーマンスを評価することができる。
このデータセットは、電力事業者が直面している現実的な運用上の課題を模倣するRLベースのVVC研究を行う上で有用なテストベッドとして機能する。
一方、研究者は異なるアルゴリズム間で公正な性能比較を行うことができる。
関連論文リスト
- An experimental evaluation of Deep Reinforcement Learning algorithms for
HVAC control [43.04396144731684]
近年の研究では、Deep Reinforcement Learning (DRL)アルゴリズムが従来のリアクティブコントローラより優れていることが示されている。
本稿では,HVAC制御のためのいくつかの最先端DRLアルゴリズムについて,批判的かつ再現可能な評価を行う。
論文 参考訳(メタデータ) (2024-01-11T08:40:26Z) - Beyond Uniform Sampling: Offline Reinforcement Learning with Imbalanced
Datasets [53.8218145723718]
オフラインポリシー学習は、既存のトラジェクトリのデータセットを使用して、追加データを収集せずに意思決定ポリシーを学ぶことを目的としている。
我々は、データセットが最適下軌道に支配されている場合、最先端のオフラインRLアルゴリズムはデータセットにおけるトラジェクトリの戻り平均よりも大幅に改善されないことを論じる。
本稿では,標準オフラインRLアルゴリズムにおいて,サンプリング戦略の実現と,プラグイン・アンド・プレイモジュールとして使用できるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-06T17:58:14Z) - Datasets and Benchmarks for Offline Safe Reinforcement Learning [22.912420819434516]
本稿では、オフライン安全な強化学習(RL)課題に適した総合ベンチマークスイートを提案する。
ベンチマークスイートには3つのパッケージがある: 1) 専門家による安全なポリシー、2) D4RLスタイルのデータセットと環境ラッパー、3) 高品質のオフライン安全なRLベースライン実装。
論文 参考訳(メタデータ) (2023-06-15T17:31:26Z) - DataComp: In search of the next generation of multimodal datasets [179.79323076587255]
DataCompは、Common Crawlの128億の画像テキストペアの候補プールを中心にしたデータセット実験用のテストベッドである。
我々のベンチマークは、複数の計算スケールから成っている。
特に、最良のベースラインであるDataComp-1Bは、ImageNetでCLIP ViT-L/14をスクラッチから79.2%のゼロショット精度でトレーニングすることが可能です。
論文 参考訳(メタデータ) (2023-04-27T11:37:18Z) - Data Might be Enough: Bridge Real-World Traffic Signal Control Using
Offline Reinforcement Learning [3.276435438007766]
交通信号制御(TSC)への強化学習が有望なソリューションとなっている。
環境との相互作用を必要とするオンラインRLベースの手法は、実環境との相互作用に制限される。
これらの課題に対処するために,(1)一般的な実世界のシナリオに基づいて設計された循環型オフラインデータセット(COD),(2)CODから満足度の高い制御戦略を学習可能なDataLightと呼ばれるオフラインRLモデル,(3)ほとんどのRLベースの手法を循環型信号制御に変換するArbitrary To Cyclical(ATC)を提案する。
論文 参考訳(メタデータ) (2023-03-20T02:02:50Z) - Deep Reinforcement Learning Assisted Federated Learning Algorithm for
Data Management of IIoT [82.33080550378068]
産業用IoT(Industrial Internet of Things)の継続的な拡大により、IIoT機器は毎回大量のユーザデータを生成する。
IIoTの分野で、これらの時系列データを効率的かつ安全な方法で管理する方法は、依然として未解決の問題である。
本稿では,無線ネットワーク環境におけるIIoT機器データ管理におけるFL技術の適用について検討する。
論文 参考訳(メタデータ) (2022-02-03T07:12:36Z) - Understanding the Effects of Dataset Characteristics on Offline
Reinforcement Learning [4.819336169151637]
オフライン強化学習は、環境と対話することなく、特定のデータセットからポリシーを学ぶことができる。
個別動作環境におけるオフラインRLアルゴリズムの性能にデータセット特性がどう影響するかを示す。
高いTQを持つデータセットの場合、Behavior Cloningは最高のオフラインRLアルゴリズムよりも優れ、あるいは同等に動作する。
論文 参考訳(メタデータ) (2021-11-08T18:48:43Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z) - D4RL: Datasets for Deep Data-Driven Reinforcement Learning [119.49182500071288]
オフラインRLのリアルタイムアプリケーションに関連するデータセットのキープロパティによってガイドされるオフライン設定用に特別に設計されたベンチマークを紹介する。
部分的に訓練されたRLエージェントによって収集された単純なベンチマークタスクやデータを超えて、既存のアルゴリズムの重要かつ未承認な欠陥を明らかにする。
論文 参考訳(メタデータ) (2020-04-15T17:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。