論文の概要: Toward Adaptive Grid Resilience: A Gradient-Free Meta-RL Framework for Critical Load Restoration
- arxiv url: http://arxiv.org/abs/2601.10973v1
- Date: Fri, 16 Jan 2026 03:36:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.350044
- Title: Toward Adaptive Grid Resilience: A Gradient-Free Meta-RL Framework for Critical Load Restoration
- Title(参考訳): Adaptive Grid Resilienceに向けて: 臨界負荷復旧のためのグラディエントフリーメタRLフレームワーク
- Authors: Zain ul Abdeen, Waris Gill, Ming Jin,
- Abstract要約: 強化学習は、不確実性の下でのシーケンシャルな決定を最適化することができる。
標準RLは、しばしばあまり一般化せず、新しい停止設定や生成パターンのために広範囲のトレーニングを必要とする。
本稿では,過去の障害経験から移行可能な初期化を学習するメタガイド付きグラデーションフリーなRLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.573424608566227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Restoring critical loads after extreme events demands adaptive control to maintain distribution-grid resilience, yet uncertainty in renewable generation, limited dispatchable resources, and nonlinear dynamics make effective restoration difficult. Reinforcement learning (RL) can optimize sequential decisions under uncertainty, but standard RL often generalizes poorly and requires extensive retraining for new outage configurations or generation patterns. We propose a meta-guided gradient-free RL (MGF-RL) framework that learns a transferable initialization from historical outage experiences and rapidly adapts to unseen scenarios with minimal task-specific tuning. MGF-RL couples first-order meta-learning with evolutionary strategies, enabling scalable policy search without gradient computation while accommodating nonlinear, constrained distribution-system dynamics. Experiments on IEEE 13-bus and IEEE 123-bus test systems show that MGF-RL outperforms standard RL, MAML-based meta-RL, and model predictive control across reliability, restoration speed, and adaptation efficiency under renewable forecast errors. MGF-RL generalizes to unseen outages and renewable patterns while requiring substantially fewer fine-tuning episodes than conventional RL. We also provide sublinear regret bounds that relate adaptation efficiency to task similarity and environmental variation, supporting the empirical gains and motivating MGF-RL for real-time load restoration in renewable-rich distribution grids.
- Abstract(参考訳): 極端なイベント後の臨界負荷の回復は、分散グリッドのレジリエンスを維持するために適応的な制御を要求するが、再生可能エネルギー、限られたディスパッチ可能な資源、非線形ダイナミクスは、効果的な回復を困難にしている。
強化学習(RL)は、不確実性の下でのシーケンシャルな決定を最適化することができるが、標準のRLは、しばしば一般化が不十分で、新しい障害設定や生成パターンに対して広範な再訓練を必要とする。
本稿では,従来の障害経験から移動可能な初期化を学習し,タスク固有のチューニングを最小限に抑えた未知のシナリオに迅速に適応するメタガイド付き勾配自由RL(MGF-RL)フレームワークを提案する。
MGF-RLは1次メタラーニングと進化戦略を結合し、非線形で制約付き分布系力学を調節しながら、勾配計算なしでスケーラブルなポリシー探索を可能にする。
IEEE 13-bus と IEEE 123-bus の試験では、MGF-RL は標準RL、MAML ベースメタRL、モデル予測制御より優れており、信頼性、復元速度、適応効率は再生可能予測誤差で優れていた。
MGF-RLは、従来のRLよりも微調整エピソードを著しく少なくして、目に見えない機能停止や再生パターンに一般化する。
また, 適応効率とタスク類似性, 環境変動の関連性, 実証的なゲインのサポート, 再生可能量の多い配電網におけるリアルタイム負荷復旧のためのMGF-RLの動機付けなどについても検討した。
関連論文リスト
- Offline Meta-Reinforcement Learning with Flow-Based Task Inference and Adaptive Correction of Feature Overgeneralization [12.107082786676907]
オフラインメタ強化学習(OMRL)は、オフラインRLにおける多様なデータセットからの学習の強みと、メタRLの新しいタスクへの適応性を組み合わせる。
既存の研究では、$Q$ネットワークの一般化がオフラインRLにおける外挿誤差に影響を与えることが示されている。
特徴分布をモデル化し,不確かさを推定することでOODサンプルを同定するFLORAを提案する。
論文 参考訳(メタデータ) (2026-01-12T03:16:07Z) - Sample-Efficient Neurosymbolic Deep Reinforcement Learning [49.60927398960061]
本稿では,背景記号知識を統合し,サンプル効率を向上させるニューロシンボリックディープRL手法を提案する。
オンライン推論は2つのメカニズムを通じてトレーニングプロセスのガイドを行う。
我々は、最先端の報奨機ベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2026-01-06T09:28:53Z) - Principled RL for Diffusion LLMs Emerges from a Sequence-Level Perspective [85.06838178922791]
強化学習(RL)は自己回帰言語モデルに非常に効果的であることが証明されている。
しかし、これらの手法を拡散大言語モデル(dLLM)に適応させることは、根本的な課題を提起する。
本稿では,全シーケンス生成を単一アクションとして扱い,ELBOを抽出可能なシークエンスレベル確率プロキシとして利用する,原則的RLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-03T13:05:32Z) - Group-Relative REINFORCE Is Secretly an Off-Policy Algorithm: Demystifying Some Myths About GRPO and Its Friends [64.71326476563213]
大規模言語モデル(LLM)の非政治強化学習が注目されている。
本稿では,特定のトレーニングデータ分布を仮定することなく,グループ化型REINFORCEの第一原理導出について述べる。
この観点は、REINFORCEを非政治的な設定に適応するための2つの一般的な原則をもたらす。
論文 参考訳(メタデータ) (2025-09-29T02:34:54Z) - Large Language Model-Enhanced Reinforcement Learning for Generic Bus Holding Control Strategies [12.599164162404994]
本研究では,Large Language Models(LLMs)の文脈内学習と推論機能を活用した自動報酬生成パラダイムを提案する。
提案するLLM拡張RLパラダイムの実現可能性を評価するため,バス路線数,停留所数,旅客需要数に異なる広範なバス保持制御シナリオに適用した。
論文 参考訳(メタデータ) (2024-10-14T07:10:16Z) - Reinforcement learning for anisotropic p-adaptation and error estimation in high-order solvers [0.37109226820205005]
強化学習(RL)を用いた高次h/pにおける異方性p適応の自動化と最適化のための新しい手法を提案する。
我々は,シミュレーションを行う際の最小限のオーバーコストを示す,主解法から切り離されたオフライントレーニング手法を開発した。
我々は、局所的な離散化誤差の定量化を可能にする、安価なRLベースの誤差推定手法を導出する。
論文 参考訳(メタデータ) (2024-07-26T17:55:23Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Reinforcement Learning for Adaptive Mesh Refinement [63.7867809197671]
マルコフ決定過程としてのAMRの新規な定式化を提案し,シミュレーションから直接改良政策を訓練するために深部強化学習を適用した。
これらのポリシーアーキテクチャのモデルサイズはメッシュサイズに依存しないため、任意に大きく複雑なシミュレーションにスケールします。
論文 参考訳(メタデータ) (2021-03-01T22:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。