論文の概要: Global Performance Guarantees for Neural Network Models of AC Power Flow
- arxiv url: http://arxiv.org/abs/2211.07125v1
- Date: Mon, 14 Nov 2022 05:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 21:32:20.788623
- Title: Global Performance Guarantees for Neural Network Models of AC Power Flow
- Title(参考訳): 交流電力流れのニューラルネットワークモデルにおけるグローバル性能保証
- Authors: Samuel Chevalier and Spyros Chatzivasileiadis
- Abstract要約: 本稿では,トラクタブルニューラルネットワークの検証手法を初めて開発する。
これは、最悪のニューラルネットワーク性能を決定するために、エンフノン線形交流流方程式の基礎的真実を取り入れている。
STTはMIQP上界よりも桁違いに厳密な性能保証をしばしば生成することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning can generate black-box surrogate models which are both
extremely fast and highly accurate. Rigorously verifying the accuracy of these
black-box models, however, is computationally challenging. When it comes to
power systems, learning AC power flow is the cornerstone of any machine
learning surrogate model wishing to drastically accelerate computations,
whether it is for optimization, control, or dynamics. This paper develops for
the first time, to our knowledge, a tractable neural network verification
procedure which incorporates the ground truth of the \emph{non-linear} AC power
flow equations to determine worst-case neural network performance. Our
approach, termed Sequential Targeted Tightening (STT), leverages a loosely
convexified reformulation of the original verification problem, which is a
mixed integer quadratic program (MIQP). Using the sequential addition of
targeted cuts, we iteratively tighten our formulation until either the solution
is sufficiently tight or a satisfactory performance guarantee has been
generated. After learning neural network models of the 14, 57, 118, and 200-bus
PGLib test cases, we compare the performance guarantees generated by our STT
procedure with ones generated by a state-of-the-art MIQP solver, Gurobi 9.5. We
show that STT often generates performance guarantees which are orders of
magnitude tighter than the MIQP upper bound.
- Abstract(参考訳): 機械学習は、非常に高速かつ高精度なブラックボックスサーロゲートモデルを生成することができる。
しかし、これらのブラックボックスモデルの精度を厳格に検証することは困難である。
電力システムに関しては、ACパワーフローの学習は、最適化、制御、動的処理のいずれにおいても、計算を劇的に加速したいと願う機械学習サロゲートモデルの基盤となる。
本稿では, ニューラルネットワークの最悪の性能を決定するために, 交流電力流方程式の基底的真理を組み込んだ, トラクタブルニューラルネットワーク検証手法を, 我々の知る限り, 初めて開発する。
我々の手法は逐次的目標追尾(STT)と呼ばれ、混合整数二次プログラム(MIQP)である元の検証問題のゆるやかに凸化された再構成を利用する。
目標カットの逐次追加を用いることで, 解が十分にきついか, 性能保証が十分に得られるまで, 反復的に定式化を締め付ける。
14,57,118,200-busのPGLibテストケースのニューラルネットワークモデルを学習した後、STT手順によって生成された性能保証と最先端MIQP解決器であるGurobi 9.5による性能保証を比較した。
STTはMIQP上界よりも桁違いに厳密な性能保証をしばしば生成することを示す。
関連論文リスト
- Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - Evaluation of machine learning architectures on the quantification of
epistemic and aleatoric uncertainties in complex dynamical systems [0.0]
不確実量化(英: Uncertainty Quantification、UQ)は、モデル誤差の自己評価値である。
ガウス過程とファミリーUQ強化ニューラルネットワークの両方を含む機械学習技術について検討する。
検証データ上の正規化残差の分布と推定不確かさの分布の2つの指標を用いて,UQ精度(モデル精度とは異なる)を評価する。
論文 参考訳(メタデータ) (2023-06-27T02:35:25Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Attentive Gaussian processes for probabilistic time-series generation [4.94950858749529]
本稿では,ガウス過程の回帰と組み合わせて実数値列を生成する,計算効率のよいアテンションベースネットワークを提案する。
我々は,GPがフルバッチを用いて訓練されている間,ネットワークのミニバッチトレーニングを可能にするブロックワイズトレーニングアルゴリズムを開発した。
アルゴリズムは収束することが証明され、より良くなくても、見いだされた解の品質に匹敵することを示す。
論文 参考訳(メタデータ) (2021-02-10T01:19:15Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。