論文の概要: Scaling Laws of Machine Learning for Optimal Power Flow
- arxiv url: http://arxiv.org/abs/2601.02706v1
- Date: Tue, 06 Jan 2026 04:32:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.799718
- Title: Scaling Laws of Machine Learning for Optimal Power Flow
- Title(参考訳): 最適潮流のための機械学習のスケーリング法則
- Authors: Xinyi Liu, Xuan He, Yize Chen,
- Abstract要約: 深層ニューラルネットワーク(DNN)のような機械学習アプローチは、OPFソリューションの速度と性能を向上させるために広く研究されている。
既存の研究では、これらのスケーリング関係を定量化することなく、離散的なシナリオを評価する。
この研究は、MLベースのOPFの2次元にわたる最初の体系的スケーリング研究である。
- 参考スコア(独自算出の注目度): 18.873780776603216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal power flow (OPF) is one of the fundamental tasks for power system operations. While machine learning (ML) approaches such as deep neural networks (DNNs) have been widely studied to enhance OPF solution speed and performance, their practical deployment faces two critical scaling questions: What is the minimum training data volume required for reliable results? How should ML models' complexity balance accuracy with real-time computational limits? Existing studies evaluate discrete scenarios without quantifying these scaling relationships, leading to trial-and-error-based ML development in real-world applications. This work presents the first systematic scaling study for ML-based OPF across two dimensions: data scale (0.1K-40K training samples) and compute scale (multiple NN architectures with varying FLOPs). Our results reveal consistent power-law relationships on both DNNs and physics-informed NNs (PINNs) between each resource dimension and three core performance metrics: prediction error (MAE), constraint violations and speed. We find that for ACOPF, the accuracy metric scales with dataset size and training compute. These scaling laws enable predictable and principled ML pipeline design for OPF. We further identify the divergence between prediction accuracy and constraint feasibility and characterize the compute-optimal frontier. This work provides quantitative guidance for ML-OPF design and deployments.
- Abstract(参考訳): 最適電力フロー(OPF)は、電力系統運用の基本課題の一つである。
深層ニューラルネットワーク(DNN)のような機械学習(ML)アプローチは、OPFソリューションのスピードとパフォーマンスを向上させるために広く研究されているが、その実践的なデプロイメントは、2つの重要なスケーリング問題に直面している。
MLモデルの複雑性は、リアルタイム計算限界とどのように正確なバランスをとるべきか?
既存の研究では、これらのスケーリング関係を定量化せずに離散シナリオを評価し、現実世界のアプリケーションで試行錯誤ベースのML開発につながる。
この研究は、データスケール(0.1K-40Kトレーニングサンプル)と計算スケール(FLOPの異なる複数のNNアーキテクチャ)の2つの次元にわたるMLベースのOPFのための最初の体系的スケーリング研究を示す。
この結果から,DNNと物理インフォームドNN(PINN)の双方において,各リソース次元と,予測誤差(MAE),制約違反,速度の3つのコアパフォーマンス指標が一貫した関係性を示す。
ACOPFの場合、データセットのサイズとトレーニング計算による精度の尺度が得られます。
これらのスケーリング法則は、OPFの予測可能で原則化されたMLパイプライン設計を可能にする。
さらに,予測精度と制約実現可能性の相違を同定し,計算最適フロンティアを特徴付ける。
この作業は、ML-OPFの設計とデプロイメントに関する定量的ガイダンスを提供する。
関連論文リスト
- Compute-Optimal Scaling for Value-Based Deep RL [99.680827753493]
オンライン価値ベースディープRLの計算スケーリングについて検討する。
解析の結果,モデルサイズ,バッチサイズ,UTD間の微妙な相互作用が明らかになった。
この現象を理解するためのメンタルモデルを提供し、バッチサイズとUTDを選択するためのガイドラインを構築します。
論文 参考訳(メタデータ) (2025-08-20T17:54:21Z) - BLIPs: Bayesian Learned Interatomic Potentials [47.73617239750485]
機械学習原子間ポテンシャル(MLIP)は、シミュレーションベースの化学の中心的なツールになりつつある。
MLIPは、アクティブな学習パイプラインをガイドする基本となる、構築による不確実性推定を提供していない。
BLIPはスケーラブルでアーキテクチャに依存しない、トレーニングや微調整のためのベイズ的フレームワークである。
論文 参考訳(メタデータ) (2025-08-19T17:28:14Z) - LaPON: A Lagrange's-mean-value-theorem-inspired operator network for solving PDEs and its application on NSE [8.014720523981385]
ラグランジュの平均値定理に着想を得た演算子ネットワークであるLaPONを提案する。
損失関数ではなく、ニューラルネットワークアーキテクチャに直接、事前の知識を組み込む。
LaPONは、高忠実度流体力学シミュレーションのためのスケーラブルで信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T10:45:17Z) - DeepFEA: Deep Learning for Prediction of Transient Finite Element Analysis Solutions [2.9784611307466187]
有限要素解析(英: Finite Element Analysis, FEA)は、物理現象をシミュレーションする強力な計算集約手法である。
機械学習の最近の進歩は、FEAを加速できるサロゲートモデルにつながっている。
この研究ギャップに触発された本研究では,ディープラーニングベースのフレームワークであるDeepFEAを提案する。
論文 参考訳(メタデータ) (2024-12-05T12:46:18Z) - Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能推定のためのより計算効率のよい指標として、事前学習損失に焦点を当てている。
FLP-Mは、事前トレーニング中に複数のソースからのデータセットを統合する実践的なニーズに対処する、パフォーマンス予測の基本的なアプローチである。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。