論文の概要: A Reinforcement Learning-based Volt-VAR Control Dataset and Testing
Environment
- arxiv url: http://arxiv.org/abs/2204.09500v1
- Date: Wed, 20 Apr 2022 14:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 16:41:17.376697
- Title: A Reinforcement Learning-based Volt-VAR Control Dataset and Testing
Environment
- Title(参考訳): 強化学習に基づくVolt-VAR制御データセットとテスト環境
- Authors: Yuanqi Gao, Nanpeng Yu
- Abstract要約: 本稿では,RLに基づくVVCアルゴリズム研究のための,サンプル効率,安全性,ロバストなオープンソースのデータセット群を紹介する。
データセットは、2つのコンポーネントで構成されている。1. IEEE-13、123、および8500バスのテストフィード用のGymライクなVVCテスト環境。
- 参考スコア(独自算出の注目度): 4.386026071380442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To facilitate the development of reinforcement learning (RL) based power
distribution system Volt-VAR control (VVC), this paper introduces a suite of
open-source datasets for RL-based VVC algorithm research that is sample
efficient, safe, and robust. The dataset consists of two components: 1. a
Gym-like VVC testing environment for the IEEE-13, 123, and 8500-bus test
feeders and 2. a historical operational dataset for each of the feeders.
Potential users of the dataset and testing environment could first train an
sample-efficient off-line (batch) RL algorithm on the historical dataset and
then evaluate the performance of the trained RL agent on the testing
environments. This dataset serves as a useful testbed to conduct RL-based VVC
research mimicking the real-world operational challenges faced by electric
utilities. Meanwhile, it allows researchers to conduct fair performance
comparisons between different algorithms.
- Abstract(参考訳): 本稿では,RLに基づく電力分配システムVolt-VAR(Volt-VAR Control)の開発を容易にするために,サンプル効率,安全性,ロバスト性を備えたRLベースのVVCアルゴリズム研究のための一連のオープンソースデータセットを提案する。
データセットは2つのコンポーネントから構成される。
1.ieee-13, 123, 8500バステストフィーダ用ジム型vvcテスト環境
2. 供給者毎の履歴運用データセット。
データセットとテスト環境の潜在的ユーザは、まず、過去のデータセット上でサンプル効率のよいオフライン(バッチ)RLアルゴリズムをトレーニングし、その後、テスト環境でトレーニングされたRLエージェントのパフォーマンスを評価することができる。
このデータセットは、電力事業者が直面している現実的な運用上の課題を模倣するRLベースのVVC研究を行う上で有用なテストベッドとして機能する。
一方、研究者は異なるアルゴリズム間で公正な性能比較を行うことができる。
関連論文リスト
- D5RL: Diverse Datasets for Data-Driven Deep Reinforcement Learning [99.33607114541861]
ロボット操作と移動環境の現実的なシミュレーションに焦点を当てたオフラインRLのための新しいベンチマークを提案する。
提案するベンチマークでは、状態ベースドメインと画像ベースドメインを対象とし、オフラインRLとオンライン微調整評価の両方をサポートしている。
論文 参考訳(メタデータ) (2024-08-15T22:27:00Z) - Experimental evaluation of offline reinforcement learning for HVAC control in buildings [12.542463083734614]
建物における動的HVAC制御のために, 強化学習(RL)技術がますます研究されている。
本稿では,最先端のオフラインRLアルゴリズムの長所と短所を包括的に評価する。
論文 参考訳(メタデータ) (2024-08-15T07:25:52Z) - An experimental evaluation of Deep Reinforcement Learning algorithms for HVAC control [40.71019623757305]
近年の研究では、Deep Reinforcement Learning (DRL)アルゴリズムが従来のリアクティブコントローラより優れていることが示されている。
本稿では,HVAC制御のためのいくつかの最先端DRLアルゴリズムについて,批判的かつ再現可能な評価を行う。
論文 参考訳(メタデータ) (2024-01-11T08:40:26Z) - Genixer: Empowering Multimodal Large Language Models as a Powerful Data Generator [63.762209407570715]
Genixerは4つの重要なステップからなる包括的なデータ生成パイプラインである。
LLaVA1.5でトレーニングされた合成VQAライクなデータセットは、12のマルチモーダルベンチマークのうち10のパフォーマンスを向上させる。
タスク固有のデータセットで訓練されたMLLMは、複雑な命令チューニングデータを生成する際に、GPT-4Vを超えることができる。
論文 参考訳(メタデータ) (2023-12-11T09:44:41Z) - Datasets and Benchmarks for Offline Safe Reinforcement Learning [22.912420819434516]
本稿では、オフライン安全な強化学習(RL)課題に適した総合ベンチマークスイートを提案する。
ベンチマークスイートには3つのパッケージがある: 1) 専門家による安全なポリシー、2) D4RLスタイルのデータセットと環境ラッパー、3) 高品質のオフライン安全なRLベースライン実装。
論文 参考訳(メタデータ) (2023-06-15T17:31:26Z) - DataComp: In search of the next generation of multimodal datasets [179.79323076587255]
DataCompは、Common Crawlの128億の画像テキストペアの候補プールを中心にしたデータセット実験用のテストベッドである。
我々のベンチマークは、複数の計算スケールから成っている。
特に、最良のベースラインであるDataComp-1Bは、ImageNetでCLIP ViT-L/14をスクラッチから79.2%のゼロショット精度でトレーニングすることが可能です。
論文 参考訳(メタデータ) (2023-04-27T11:37:18Z) - Deep Reinforcement Learning Assisted Federated Learning Algorithm for
Data Management of IIoT [82.33080550378068]
産業用IoT(Industrial Internet of Things)の継続的な拡大により、IIoT機器は毎回大量のユーザデータを生成する。
IIoTの分野で、これらの時系列データを効率的かつ安全な方法で管理する方法は、依然として未解決の問題である。
本稿では,無線ネットワーク環境におけるIIoT機器データ管理におけるFL技術の適用について検討する。
論文 参考訳(メタデータ) (2022-02-03T07:12:36Z) - Understanding the Effects of Dataset Characteristics on Offline
Reinforcement Learning [4.819336169151637]
オフライン強化学習は、環境と対話することなく、特定のデータセットからポリシーを学ぶことができる。
個別動作環境におけるオフラインRLアルゴリズムの性能にデータセット特性がどう影響するかを示す。
高いTQを持つデータセットの場合、Behavior Cloningは最高のオフラインRLアルゴリズムよりも優れ、あるいは同等に動作する。
論文 参考訳(メタデータ) (2021-11-08T18:48:43Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z) - D4RL: Datasets for Deep Data-Driven Reinforcement Learning [119.49182500071288]
オフラインRLのリアルタイムアプリケーションに関連するデータセットのキープロパティによってガイドされるオフライン設定用に特別に設計されたベンチマークを紹介する。
部分的に訓練されたRLエージェントによって収集された単純なベンチマークタスクやデータを超えて、既存のアルゴリズムの重要かつ未承認な欠陥を明らかにする。
論文 参考訳(メタデータ) (2020-04-15T17:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。