論文の概要: M$^2$OE$^2$-GL: A Family of Probabilistic Load Forecasters That Scales to Massive Customers
- arxiv url: http://arxiv.org/abs/2511.17623v1
- Date: Tue, 18 Nov 2025 17:18:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.302252
- Title: M$^2$OE$^2$-GL: A Family of Probabilistic Load Forecasters That Scales to Massive Customers
- Title(参考訳): M$^2$OE$^2$-GL: 大規模顧客にスケールする確率的負荷予測器のファミリー
- Authors: Haoran Li, Zhe Cheng, Muhao Guo, Yang Weng, Yannan Sun, Victor Tran, John Chainaranont,
- Abstract要約: 我々は,M2OE2確率予測器のグローバル・ローカル拡張であるM2OE2-GLを提案する。
M2OE2-GLは、非常に多くの負荷に対してスケーラブルでありながら、かなりのエラー低減をもたらす。
- 参考スコア(独自算出の注目度): 7.238356355295864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic load forecasting is widely studied and underpins power system planning, operation, and risk-aware decision making. Deep learning forecasters have shown strong ability to capture complex temporal and contextual patterns, achieving substantial accuracy gains. However, at the scale of thousands or even hundreds of thousands of loads in large distribution feeders, a deployment dilemma emerges: training and maintaining one model per customer is computationally and storage intensive, while using a single global model ignores distributional shifts across customer types, locations, and phases. Prior work typically focuses on single-load forecasters, global models across multiple loads, or adaptive/personalized models for relatively small settings, and rarely addresses the combined challenges of heterogeneity and scalability in large feeders. We propose M2OE2-GL, a global-to-local extension of the M2OE2 probabilistic forecaster. We first pretrain a single global M2OE2 base model across all feeder loads, then apply lightweight fine-tuning to derive a compact family of group-specific forecasters. Evaluated on realistic utility data, M2OE2-GL yields substantial error reductions while remaining scalable to very large numbers of loads.
- Abstract(参考訳): 確率的負荷予測は広く研究され、電力系統の計画、運用、リスク対応意思決定を支える。
ディープラーニング予測器は、複雑な時間的および文脈的パターンを捕捉し、相当な精度向上を達成する強力な能力を示している。
ひとつのグローバルモデルを使用することで、顧客タイプ、ロケーション、フェーズ間の分散シフトを無視する。
従来の作業では、シングルロードの予測や、複数の負荷にわたるグローバルモデル、あるいは比較的小さな設定のための適応/個人化モデルに重点を置いていた。
我々は,M2OE2確率予測器のグローバル・ローカル拡張であるM2OE2-GLを提案する。
まず、すべてのフィード負荷に対して単一のグローバルM2OE2ベースモデルを事前訓練し、続いて軽量微調整を適用して、グループ固有の予測器のコンパクトなファミリを導出する。
M2OE2-GLは、現実的なユーティリティデータに基づいて評価され、非常に多くの負荷に対してスケーラブルでありながら、かなりのエラー削減をもたらす。
関連論文リスト
- Agentic World Modeling for 6G: Near-Real-Time Generative State-Space Reasoning [70.56067503630486]
第6世代(6G)インテリジェンスは、流動的なトークン予測ではなく、想像と選択の能力を校正している、と我々は主張する。
We showed that WM-MS3M cuts mean absolute error (MAE) by 1.69% vs MS3M with 32% less parameters and similar latency, and achieve a 35-80% lower root mean squared error (RMSE) than attention/hybrid baselines with 2.3-4.1x faster inference。
論文 参考訳(メタデータ) (2025-11-04T17:22:22Z) - SVTime: Small Time Series Forecasting Models Informed by "Physics" of Large Vision Model Forecasters [86.38433605933515]
動的Webコンテンツを分析するには時系列AIが不可欠だ。
エネルギー集約的なトレーニング、推論、ハードウェアの要求を考えると、大きなモデルを1フィットのソリューションとして使うと、二酸化炭素のフットプリントと持続可能性に対する深刻な懸念が浮かび上がっています。
本稿では、長期時系列予測(LTSF)のための大型ビジョンモデル(LVM)予測器にインスパイアされた新しい小型モデルSVTimeを紹介する。
論文 参考訳(メタデータ) (2025-10-10T18:42:23Z) - LimiX: Unleashing Structured-Data Modeling Capability for Generalist Intelligence [61.46575527504109]
LimiX-16MとLimiX-2Mは、構造化されたデータを変数と欠落に対する共同分布として扱う。
サンプルサイズ,特徴次元,クラス数,カテゴリ間特徴比,欠落度,サンプル-特徴比の広い11種類の大規模構造化データベンチマークを対象としたLimiXモデルの評価を行った。
論文 参考訳(メタデータ) (2025-09-03T17:39:08Z) - FedYolo: Augmenting Federated Learning with Pretrained Transformers [61.56476056444933]
本研究では,デバイス上での学習目標を達成するための事前学習型トランスフォーマー(PTF)について検討する。
大規模化により,代替手法間の精度ギャップが小さくなり,ロバスト性も向上することを示す。
最後に、クライアントは単一のPTFを使用して複数の無関係なタスクを同時に解決できる。
論文 参考訳(メタデータ) (2023-07-10T21:08:52Z) - FedBone: Towards Large-Scale Federated Multi-Task Learning [13.835972363413884]
現実世界のアプリケーションでは、視覚と自然言語のタスクは、高レベルの抽象的特徴を抽出するために大規模なモデルを必要とする。
既存のHFML手法は、マルチタスク最適化における勾配競合の影響を無視している。
我々はFedBoneと呼ばれる革新的なフレームワークを提案し、より優れた一般化を伴う大規模モデルの構築を可能にする。
論文 参考訳(メタデータ) (2023-06-30T08:19:38Z) - Transformer Training Strategies for Forecasting Multiple Load Time
Series [0.18472148461613158]
我々はトランスフォーマー負荷予測モデルが伝達学習戦略の恩恵を受けるかどうかを評価する。
数百のクライアントからの負荷時系列を含む2つのデータセットを用いた実験では,グローバルトレーニング戦略が優れていることがわかった。
線形モデル、多層パーセプトロン、LSTMと比較すると、トランスフォーマーはグローバルトレーニング戦略でトレーニングされた場合の負荷予測に有効である。
論文 参考訳(メタデータ) (2023-06-19T12:36:54Z) - A Global Modeling Approach for Load Forecasting in Distribution Networks [10.249757638247429]
個々の負荷に対する個別(またはいわゆるローカル)予測モデルを別々に開発するのは現実的ではない。
本稿では,分散ネットワークにおける大量の負荷の効率的な予測のためのディープラーニングに基づくグローバルモデリング手法を提案する。
論文 参考訳(メタデータ) (2022-04-01T14:51:50Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z) - A Data-Driven Machine Learning Approach for Consumer Modeling with Load
Disaggregation [1.6058099298620423]
本稿では,住宅利用者の消費データから導出したデータ駆動セミパラメトリックモデルの汎用クラスを提案する。
第1段階では、固定およびシフト可能なコンポーネントへの負荷の分散をハイブリッドアルゴリズムを用いて達成する。
第2段階では、モデルパラメータはL2ノルム、エプシロン非感受性回帰法を用いて推定される。
論文 参考訳(メタデータ) (2020-11-04T13:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。