論文の概要: Fast and Reliable $N-k$ Contingency Screening with Input-Convex Neural Networks
- arxiv url: http://arxiv.org/abs/2410.00796v1
- Date: Tue, 1 Oct 2024 15:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 03:55:54.860561
- Title: Fast and Reliable $N-k$ Contingency Screening with Input-Convex Neural Networks
- Title(参考訳): 入力凸ニューラルネットを用いた高速で信頼性の高い$N-k$並行スクリーニング
- Authors: Nicolas Christianson, Wenqi Cui, Steven Low, Weiwei Yang, Baosen Zhang,
- Abstract要約: 電力系統のオペレータは、グリッドの停止や障害の防止や信頼性の高い運用を保証するために、ディスパッチ決定が実行可能であることを保証しなければなりません。
たとえ小さな$k$グリッドコンポーネントであっても、すべての$N - k$コンセントの実現可能性を確認する。
本研究では,入力カスケード型ニューラルネットワーク(ICNN)を用いた同時スクリーニング手法を提案する。
- 参考スコア(独自算出の注目度): 3.490170135411753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Power system operators must ensure that dispatch decisions remain feasible in case of grid outages or contingencies to prevent cascading failures and ensure reliable operation. However, checking the feasibility of all $N - k$ contingencies -- every possible simultaneous failure of $k$ grid components -- is computationally intractable for even small $k$, requiring system operators to resort to heuristic screening methods. Because of the increase in uncertainty and changes in system behaviors, heuristic lists might not include all relevant contingencies, generating false negatives in which unsafe scenarios are misclassified as safe. In this work, we propose to use input-convex neural networks (ICNNs) for contingency screening. We show that ICNN reliability can be determined by solving a convex optimization problem, and by scaling model weights using this problem as a differentiable optimization layer during training, we can learn an ICNN classifier that is both data-driven and has provably guaranteed reliability. Namely, our method can ensure a zero false negative rate. We empirically validate this methodology in a case study on the IEEE 39-bus test network, observing that it yields substantial (10-20x) speedups while having excellent classification accuracy.
- Abstract(参考訳): 電力系統のオペレータは、グリッドの停止や緊急時にディスパッチ決定が可能であることを保証し、カスケード障害を防止し、信頼性の高い運用を保証する必要がある。
しかしながら、$k$グリッドコンポーネントの同時障害が可能なすべての$N - k$コンセントの実現可能性をチェックすることは、小さな$k$でも計算に難航し、システムオペレーターはヒューリスティックなスクリーニング手法を使わなければならない。
不確実性の増加とシステムの振る舞いの変化のため、ヒューリスティックリストにはすべての関連する事象が含まれていない可能性がある。
本研究では,入力凸ニューラルネットワーク (ICNN) を並列性スクリーニングに用いることを提案する。
ICNNの信頼性は凸最適化問題を解くことで決定できることを示すとともに、この問題をトレーニング中に微分可能な最適化層として用いたモデル重みをスケーリングすることにより、データ駆動で信頼性を保証できるICNN分類器を学習できることを示す。
すなわち、この手法はゼロ偽陰性率を保証できる。
IEEE 39-busテストネットワークのケーススタディにおいて,本手法を実証的に検証した。
関連論文リスト
- Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Adversarial Robustness Certification for Bayesian Neural Networks [22.71265211510824]
逆入力摂動に対するベイズニューラルネットワーク(BNN)の計算の堅牢性検証問題について検討する。
本フレームワークは, 重み付け, 積分, および有界伝搬技術に基づいており, 多数のパラメータを持つBNNに適用可能である。
論文 参考訳(メタデータ) (2023-06-23T16:58:25Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Getting a-Round Guarantees: Floating-Point Attacks on Certified Robustness [19.380453459873298]
敵の例は、わずかな入力摂動によって機械学習分類器の決定を変更できるため、セキュリティリスクを引き起こす。
これらの保証は、ラウンドエラーを引き起こす浮動小数点表現の制限により無効化可能であることを示す。
この攻撃は、正確な認証保証を持つ線形分類器や、保守的な認証を持つニューラルネットワークに対して実行可能であることを示す。
論文 参考訳(メタデータ) (2022-05-20T13:07:36Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - PAC Confidence Predictions for Deep Neural Network Classifiers [28.61937254015157]
ディープニューラルネットワーク(DNN)を安全クリティカルな環境でデプロイする上で重要な課題は、その不確実性を定量化する厳密な方法を提供することだ。
証明可能な正当性保証を備えたDNNに対して,予測された分類信頼度を構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-02T04:09:17Z) - Probabilistic Safety for Bayesian Neural Networks [22.71265211510824]
逆入力摂動下でのベイズニューラルネットワーク(BNN)の確率論的安全性について検討する。
特に,BNNからサンプリングしたネットワークが敵攻撃に対して脆弱であることを示す。
そこで本手法は,BNNの確率論的安全性を数百万のパラメータで証明できることを実証的に示し,課題の回避を訓練したBNNに適用する。
論文 参考訳(メタデータ) (2020-04-21T20:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。