論文の概要: An Optimization Method-Assisted Ensemble Deep Reinforcement Learning
Algorithm to Solve Unit Commitment Problems
- arxiv url: http://arxiv.org/abs/2206.04249v1
- Date: Thu, 9 Jun 2022 03:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 16:26:10.326442
- Title: An Optimization Method-Assisted Ensemble Deep Reinforcement Learning
Algorithm to Solve Unit Commitment Problems
- Title(参考訳): ユニットコミット問題の解法のためのアンサンブル深部強化学習アルゴリズムの最適化
- Authors: Jingtao Qin, Yuanqi Gao, Mikhail Bragin, Nanpeng Yu
- Abstract要約: ユニットコミットメントは、日々の電力市場における根本的な問題である。
UCの問題を効率的に解くことは重要である。
近年の人工知能の進歩は、UCの問題を解決するための強化学習の能力を実証している。
- 参考スコア(独自算出の注目度): 3.303380427144773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unit commitment (UC) is a fundamental problem in the day-ahead electricity
market, and it is critical to solve UC problems efficiently. Mathematical
optimization techniques like dynamic programming, Lagrangian relaxation, and
mixed-integer quadratic programming (MIQP) are commonly adopted for UC
problems. However, the calculation time of these methods increases at an
exponential rate with the amount of generators and energy resources, which is
still the main bottleneck in industry. Recent advances in artificial
intelligence have demonstrated the capability of reinforcement learning (RL) to
solve UC problems. Unfortunately, the existing research on solving UC problems
with RL suffers from the curse of dimensionality when the size of UC problems
grows. To deal with these problems, we propose an optimization method-assisted
ensemble deep reinforcement learning algorithm, where UC problems are
formulated as a Markov Decision Process (MDP) and solved by multi-step deep
Q-learning in an ensemble framework. The proposed algorithm establishes a
candidate action set by solving tailored optimization problems to ensure a
relatively high performance and the satisfaction of operational constraints.
Numerical studies on IEEE 118 and 300-bus systems show that our algorithm
outperforms the baseline RL algorithm and MIQP. Furthermore, the proposed
algorithm shows strong generalization capacity under unforeseen operational
conditions.
- Abstract(参考訳): 単位コミットメント(UC)は、日々の電力市場における根本的な問題であり、UCの問題を効率的に解決することが重要である。
動的プログラミング、ラグランジアン緩和、混合整数二次計画法(MIQP)などの数学的最適化技術は、UC問題に一般的に採用されている。
しかし、これらの手法の計算時間は、発電機とエネルギー資源の量によって指数関数的に増加する。
近年の人工知能の進歩は、強化学習(RL)によるUC問題の解決能力を示している。
残念ながら、RLによるUC問題の解決に関する既存の研究は、UCの問題のサイズが大きくなると次元性の呪いに悩まされる。
これらの問題に対処するために,UC問題をマルコフ決定プロセス (MDP) として定式化し,多段階の深層Q-ラーニングをアンサンブルフレームワークで解く,最適化手法を用いた深層強化学習アルゴリズムを提案する。
提案手法は, 最適化問題を解くことで, 比較的高い性能と操作制約の満足度を確保する。
IEEE 118 と 300-bus システムの数値解析により,我々のアルゴリズムはベースライン RL アルゴリズムと MIQP よりも優れていた。
さらに,提案アルゴリズムは,予期せぬ運用条件下での強い一般化能力を示す。
関連論文リスト
- Enhancing Multi-Step Reasoning Abilities of Language Models through Direct Q-Function Optimization [50.485788083202124]
強化学習(Reinforcement Learning, RL)は、大規模言語モデルを人間の好みと整合させ、複雑なタスクを遂行する能力を向上させる上で重要な役割を担っている。
反応生成過程をマルコフ決定プロセス(MDP)として定式化し,ソフトアクター・クリティック(SAC)フレームワークを用いて,言語モデルによって直接パラメータ化されたQ関数を最適化する,直接Q関数最適化(DQO)を提案する。
GSM8KとMATHという2つの数学問題解決データセットの実験結果から、DQOは従来の手法よりも優れており、言語モデルを整合させるための有望なオフライン強化学習手法として確立されている。
論文 参考訳(メタデータ) (2024-10-11T23:29:20Z) - Distributed Quantum Approximate Optimization Algorithm on Integrated High-Performance Computing and Quantum Computing Systems for Large-Scale Optimization [1.7099366779394252]
量子近似最適化アルゴリズム(QAOA)は、ゲートベースの量子コンピューティングシステムに量子スピードアップを提供することで最適化問題を解決することを約束している。
本稿では,分散QAOA(DQAOA)を提案する。
我々はAL-DQAOAを用いてフォトニック構造を最適化することに成功し、ゲートベースの量子コンピューティングを用いた実世界の最適化問題を解くことは我々の戦略で実現可能であることを示唆した。
論文 参考訳(メタデータ) (2024-07-29T17:42:25Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - Solution to Advanced Manufacturing Process Problems using Cohort
Intelligence Algorithm with Improved Constraint Handling Approaches [0.07989135005592125]
コホートインテリジェンス(CI)アルゴリズムは、設計、製造、サプライチェーン、医療などの領域から制約のない現実の問題を解決するために、社会にインスパイアされた最適化手法である。
論文 参考訳(メタデータ) (2023-10-16T05:40:23Z) - Hybrid ACO-CI Algorithm for Beam Design problems [0.4397520291340694]
The novel hybrid version of the Ant colony optimization (ACO) method was developed using the sample space reduction technique of the Cohort Intelligence (CI) algorithm。
提案した研究は、工学領域や医療問題を含む現実世界の応用について検討することができる。
論文 参考訳(メタデータ) (2023-03-29T04:37:14Z) - Multi-Resource Allocation for On-Device Distributed Federated Learning
Systems [79.02994855744848]
本研究は,デバイス上の分散フェデレーション学習(FL)システムにおいて,レイテンシとエネルギー消費の重み付け和を最小化する分散マルチリソース割り当て方式を提案する。
システム内の各モバイルデバイスは、指定された領域内でモデルトレーニングプロセスを実行し、それぞれパラメータの導出とアップロードを行うための計算と通信資源を割り当てる。
論文 参考訳(メタデータ) (2022-11-01T14:16:05Z) - Solving the vehicle routing problem with deep reinforcement learning [0.0]
本稿では,NP-Hard 問題のクラスに属する有名な問題である Vehicle Routing Problem (VRP) に対する RL の適用について述べる。
第2フェーズでは、アクターと批評家の背後にあるニューラルアーキテクチャが確立され、畳み込みニューラルネットワークに基づいたニューラルアーキテクチャを採用することが選択された。
広範囲なインスタンスで行った実験では、アルゴリズムが優れた一般化能力を持ち、短時間で良い解に達することが示されている。
論文 参考訳(メタデータ) (2022-07-30T12:34:26Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。