論文の概要: A Multiobjective Reinforcement Learning Framework for Microgrid Energy
Management
- arxiv url: http://arxiv.org/abs/2307.08692v1
- Date: Mon, 17 Jul 2023 17:52:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 11:46:24.124089
- Title: A Multiobjective Reinforcement Learning Framework for Microgrid Energy
Management
- Title(参考訳): マイクログリッドエネルギー管理のための多目的強化学習フレームワーク
- Authors: M. Vivienne Liu, Patrick M. Reed, David Gold, Garret Quist, and C.
Lindsay Anderson
- Abstract要約: マイクログリッド(MG)は、電力グリッドの脱炭と分散化のための有望なソリューションを提供する。
しかし、MGオペレーションは、しばしば、異なる利害関係者の利益を表す複数の目的について検討する。
本稿では,高次元目的空間を探索し,対立する目的間のトレードオフを明らかにする,多目的強化学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The emergence of microgrids (MGs) has provided a promising solution for
decarbonizing and decentralizing the power grid, mitigating the challenges
posed by climate change. However, MG operations often involve considering
multiple objectives that represent the interests of different stakeholders,
leading to potentially complex conflicts. To tackle this issue, we propose a
novel multi-objective reinforcement learning framework that explores the
high-dimensional objective space and uncovers the tradeoffs between conflicting
objectives. This framework leverages exogenous information and capitalizes on
the data-driven nature of reinforcement learning, enabling the training of a
parametric policy without the need for long-term forecasts or knowledge of the
underlying uncertainty distribution. The trained policies exhibit diverse,
adaptive, and coordinative behaviors with the added benefit of providing
interpretable insights on the dynamics of their information use. We employ this
framework on the Cornell University MG (CU-MG), which is a combined heat and
power MG, to evaluate its effectiveness. The results demonstrate performance
improvements in all objectives considered compared to the status quo operations
and offer more flexibility in navigating complex operational tradeoffs.
- Abstract(参考訳): マイクログリッド(MG)の出現は、気候変動による課題を緩和し、電力グリッドの脱炭と分散化のための有望な解決策となった。
しかし、MGオペレーションは、しばしば異なる利害関係者の利益を表す複数の目的を考慮し、潜在的に複雑な衝突を引き起こす。
本稿では,高次元目標空間を探索し,矛盾する目標間のトレードオフを明らかにする多目的強化学習フレームワークを提案する。
このフレームワークは外因性情報を利用し、強化学習のデータ駆動型の性質を活かし、長期的な予測や基礎となる不確実性分布の知識を必要とせずにパラメトリックポリシーのトレーニングを可能にする。
トレーニングされたポリシーは、多様で適応的で協調的な行動を示し、情報利用のダイナミクスに関する解釈可能な洞察を提供するという追加の利益を提供する。
この枠組みはコーネル大学MG(CU-MG)に導入し,その有効性を評価する。
その結果、現状の運用と比較して考慮されるすべての目的においてパフォーマンスが向上し、複雑な運用上のトレードオフをナビゲートする柔軟性が向上した。
関連論文リスト
- LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Aligning Individual and Collective Objectives in Multi-Agent Cooperation [18.9890165928852]
学習力学を学習するために,異なるゲームとしてモデル化することで,混合モチベーションゲームを研究する。
本稿では, AgA (Altruistic Gradient Adjustment) という新しい最適化手法を提案する。
我々は、AgAにおける適切なアライメントウェイトの選択が、望ましくない解を効果的に回避しつつ、所望の解への収束を加速できるという理論的証明を提供する。
論文 参考訳(メタデータ) (2024-02-19T08:18:53Z) - Quantifying Agent Interaction in Multi-agent Reinforcement Learning for
Cost-efficient Generalization [63.554226552130054]
マルチエージェント強化学習(MARL)における一般化の課題
エージェントが未確認のコプレイヤーに影響される程度は、エージェントのポリシーと特定のシナリオに依存する。
与えられたシナリオと環境におけるエージェント間の相互作用強度を定量化する指標であるLoI(Level of Influence)を提示する。
論文 参考訳(メタデータ) (2023-10-11T06:09:26Z) - Discovering Individual Rewards in Collective Behavior through Inverse
Multi-Agent Reinforcement Learning [3.4437947384641032]
政外逆マルチエージェント強化学習アルゴリズム(IMARL)を導入する。
実演を活用することで,アルゴリズムは報酬関数を自動的に発見し,エージェントの効果的なポリシーを学習する。
提案するIMARLアルゴリズムは, 構成成分の観点から, 集合力学を理解するための重要なステップである。
論文 参考訳(メタデータ) (2023-05-17T20:07:30Z) - A Variational Approach to Mutual Information-Based Coordination for
Multi-Agent Reinforcement Learning [17.893310647034188]
マルチエージェント強化学習のための新しい相互情報フレームワークを提案する。
導出された下界を最大化するためにポリシーを適用することで,多エージェントアクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクティベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-01T12:21:30Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - Modularity benefits reinforcement learning agents with competing
homeostatic drives [5.044282303487273]
生物学的に関係のある多目的問題,変数集合の連続的ホメオスタシスについて検討し,モノリシックなディープQネットワークとモジュールネットワークを比較し,各変数に対する専用Qラーナと比較する。
モジュラーエージェント:a) は最小限に決定された探索を必要とし、b. はサンプル効率を改善し、c. はドメイン外摂動に対してより堅牢である。
論文 参考訳(メタデータ) (2022-04-13T18:57:55Z) - Weakly Supervised Disentangled Representation for Goal-conditioned
Reinforcement Learning [15.698612710580447]
本稿では,サンプル効率の向上と政策一般化を目的としたスキル学習フレームワークDR-GRLを提案する。
本稿では,解釈可能かつ制御可能な表現を学習するための空間変換オートエンコーダ(STAE)を提案する。
DR-GRLは, 試料効率と政策一般化において, 従来の手法よりも有意に優れていたことを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-28T09:05:14Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。