論文の概要: Test Time Training for AC Power Flow Surrogates via Physics and Operational Constraint Refinement
- arxiv url: http://arxiv.org/abs/2511.22343v1
- Date: Thu, 27 Nov 2025 11:27:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.53565
- Title: Test Time Training for AC Power Flow Surrogates via Physics and Operational Constraint Refinement
- Title(参考訳): 物理・運転制約リファインメントによる交流パワーフローサロゲートの試験時間トレーニング
- Authors: Panteleimon Dogoulis, Mohammad Iman Alizadeh, Sylvain Kubler, Maxime Cordy,
- Abstract要約: 機械学習(ML)技術に基づくパワーフロー計算は、従来の数値法よりも計算上の優位性が高い。
本稿では,MLベースのPFサロゲートの精度と実現性を高める物理インフォームドテストタイムトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.02886935871606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Power Flow (PF) calculation based on machine learning (ML) techniques offer significant computational advantages over traditional numerical methods but often struggle to maintain full physical consistency. This paper introduces a physics-informed test-time training (PI-TTT) framework that enhances the accuracy and feasibility of ML-based PF surrogates by enforcing AC power flow equalities and operational constraints directly at inference time. The proposed method performs a lightweight self-supervised refinement of the surrogate outputs through few gradient-based updates, enabling local adaptation to unseen operating conditions without requiring labeled data. Extensive experiments on the IEEE 14-, 118-, and 300-bus systems and the PEGASE 1354-bus network show that PI-TTT reduces power flow residuals and operational constraint violations by one to two orders of magnitude compared with purely ML-based models, while preserving their computational advantage. The results demonstrate that PI-TTT provides fast, accurate, and physically reliable predictions, representing a promising direction for scalable and physics-consistent learning in power system analysis.
- Abstract(参考訳): 機械学習(ML)技術に基づくPF(Power Flow)計算は、従来の数値手法よりも大きな計算上の優位性を提供するが、多くの場合、完全な物理的一貫性を維持するのに苦労する。
本稿では, ML ベースの PF サロゲートの精度と実現性を, 推論時に直接に交流電力流平等と操作制約を強制することによって向上させる物理インフォームドテストタイムトレーニング (PI-TTT) フレームワークを提案する。
提案手法は,少数のグラデーションベース更新によるサロゲート出力の軽量な自己監督的改善を行い,ラベル付きデータを必要としない未確認動作条件への局所的適応を可能にする。
IEEE 14-, 118-, 300-busシステムとPEGASE 1354-busネットワークの大規模な実験により、PI-TTTは計算上の優位性を保ちながら、純粋にMLベースのモデルと比較して、電力フロー残差と運用上の制約違反を1~2桁削減することを示した。
その結果、PI-TTTは高速で正確で、物理的に信頼性の高い予測を提供し、電力系統解析におけるスケーラブルで物理一貫性のある学習の有望な方向性を示すことが示された。
関連論文リスト
- EconProver: Towards More Economical Test-Time Scaling for Automated Theorem Proving [64.15371139980802]
大規模言語モデル(LLM)は、最近、自動定理証明(ATP)の分野を進歩させた。
ATPモデルに対する異なるテスト時間スケーリング戦略は、推論にかなりの計算オーバーヘッドをもたらすことを示す。
本稿では,統一EconRLパイプラインに統合可能な2つの補完手法を提案する。
論文 参考訳(メタデータ) (2025-09-16T03:00:13Z) - RoSTE: An Efficient Quantization-Aware Supervised Fine-Tuning Approach for Large Language Models [53.571195477043496]
本稿では,RoSTE (Rotated Straight-Through-Estimator) というアルゴリズムを提案する。
RoSTEは、量子化を意識した微調整(QA-SFT)と適応的な回転戦略を組み合わせることで、アクティベーションアウトリーを減少させる。
その結果, 予測誤差は収束重みの量子化誤差と直接比例し, 最適化された回転構成により効果的に管理できることが判明した。
論文 参考訳(メタデータ) (2025-02-13T06:44:33Z) - Refining Salience-Aware Sparse Fine-Tuning Strategies for Language Models [14.68920095399595]
SPEFT(Sparsity-based PEFT)は、モデルの重み行列にトレーニング可能なスパース適応を導入する。
我々は、ゼロコストNASプロキシにインスパイアされたSPEFTのサリエンス指標を初めて体系的に評価した。
静的マスキング戦略と動的マスキング戦略を比較し、トレーニング前にゼロでないエントリを事前に決定する静的マスキングが、パフォーマンスを犠牲にすることなく効率を向上することを示した。
論文 参考訳(メタデータ) (2024-12-18T04:14:35Z) - Federated Learning framework for LoRaWAN-enabled IIoT communication: A case study [41.831392507864415]
異常検出は、産業部品の異常を防止し、発見する上で重要な役割を担っている。
従来の機械学習は、LoRaWANのようなリソース制約のある環境で異常検出モデルをデプロイする際の課題に直面している。
フェデレートラーニング(FL)は、分散モデルのトレーニング、プライバシの問題への対処、データ転送の最小化によって、この問題を解決する。
論文 参考訳(メタデータ) (2024-10-15T13:48:04Z) - LTAU-FF: Loss Trajectory Analysis for Uncertainty in Atomistic Force Fields [5.396675151318325]
モデルアンサンブルは、深層学習原子論力場における予測の不確実性を推定するための有効なツールである。
しかし、それらの普及は高い計算コストと過信エラー推定によって妨げられている。
トレーニング中に得られたサンプルごとの誤差の分布を利用して,モデル潜在空間における距離に基づく類似性探索を行うことにより,これらの課題に対処する。
我々の手法はLTAUと呼ばれ、ログ化されたトレーニングエラーを用いて任意のテストポイントに対するエラーの全確率分布関数(PDF)を効率的に推定する。
論文 参考訳(メタデータ) (2024-02-01T18:50:42Z) - Weak Supervision Performance Evaluation via Partial Identification [46.73061437177238]
Programmatic Weak Supervision (PWS) は、地上の真理ラベルに直接アクセスすることなく、教師付きモデルトレーニングを可能にする。
本稿では,モデル評価を部分的同定問題としてフレーミングすることで,この問題に対処する新しい手法を提案する。
提案手法は,従来の弱監督評価手法において,ラベル付きデータを必要とせず,重要な指標に信頼性のあるバウンダリを導出する。
論文 参考訳(メタデータ) (2023-12-07T07:15:11Z) - Physics Informed Neural Networks for Phase Locked Loop Transient
Stability Assessment [0.0]
相ロックループ(PLL)のような電力電子制御器を用いて、グリッドとグリッドの同期性を維持することで、グリッドの故障時に高速な過渡的な動作を引き起こす。
本稿では,少ないラベル付きトレーニングデータを用いて,故障時のコントローラの過渡的ダイナミクスを正確に予測するニューラルネットワークアルゴリズムを提案する。
このアルゴリズムの性能は、CIGREベンチマークモデルC4.49のPSCADにおけるROMとEMTシミュレーションと比較され、グリッドインピーダンスの異なるコントローラの軌道とROAを正確に近似する能力を示している。
論文 参考訳(メタデータ) (2023-03-21T18:09:20Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - FINETUNA: Fine-tuning Accelerated Molecular Simulations [5.543169726358164]
本稿では,原子系のシミュレーションを効率的かつ正確に高速化するためのオンライン能動的学習フレームワークを提案する。
事前学習されたモデルから事前情報を組み込む伝達学習法は、DFT計算の数を91%減らしてシミュレーションを加速する。
30個のベンチマーク吸着剤触媒系の実験により,事前学習したモデルから事前情報を組み込むトランスファー学習法がシミュレーションを加速し,DFT計算の数を91%削減した。
論文 参考訳(メタデータ) (2022-05-02T21:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。