論文の概要: Automated Repair of Neural Networks
- arxiv url: http://arxiv.org/abs/2207.08157v1
- Date: Sun, 17 Jul 2022 12:42:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 15:04:32.162633
- Title: Automated Repair of Neural Networks
- Title(参考訳): ニューラルネットワークの自動修復
- Authors: Dor Cohen, Ofer Strichman
- Abstract要約: 安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
- 参考スコア(独自算出の注目度): 0.26651200086513094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last decade, Neural Networks (NNs) have been widely used in numerous
applications including safety-critical ones such as autonomous systems. Despite
their emerging adoption, it is well known that NNs are susceptible to
Adversarial Attacks. Hence, it is highly important to provide guarantees that
such systems work correctly. To remedy these issues we introduce a framework
for repairing unsafe NNs w.r.t. safety specification, that is by utilizing
satisfiability modulo theories (SMT) solvers. Our method is able to search for
a new, safe NN representation, by modifying only a few of its weight values. In
addition, our technique attempts to maximize the similarity to original network
with regard to its decision boundaries. We perform extensive experiments which
demonstrate the capability of our proposed framework to yield safe NNs w.r.t.
the Adversarial Robustness property, with only a mild loss of accuracy (in
terms of similarity). Moreover, we compare our method with a naive baseline to
empirically prove its effectiveness. To conclude, we provide an algorithm to
automatically repair NNs given safety properties, and suggest a few heuristics
to improve its computational performance. Currently, by following this approach
we are capable of producing small-sized (i.e., with up to few hundreds of
parameters) correct NNs, composed of the piecewise linear ReLU activation
function. Nevertheless, our framework is general in the sense that it can
synthesize NNs w.r.t. any decidable fragment of first-order logic
specification.
- Abstract(参考訳): 過去10年間、ニューラルネットワーク(nns)は、自律システムのような安全クリティカルなものを含む多くのアプリケーションで広く使われてきた。
採用が増えているにもかかわらず、NNが敵攻撃の影響を受けやすいことはよく知られている。
したがって、そのようなシステムが正しく動作することを保証することは極めて重要である。
これらの問題を解決するため,我々は,満足度モジュラー理論(smt)解法を用いて,安全でないnns w.r.t.安全仕様を修復するための枠組みを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
また,本手法は,決定境界に関して,元のネットワークとの類似性を最大化することを試みる。
提案手法は, 提案手法を用いて, 相対的ロバスト性(Adversarial Robustness)特性に対して, わずかに精度を損なうことなく, 安全なNNが得られることを示す。
さらに,本手法をナイーブベースラインと比較し,その有効性を実証した。
結論として,安全性のあるNNを自動的に修復するアルゴリズムを提案し,その計算性能を改善するためのヒューリスティックスを提案する。
現在、このアプローチに従うことで、線形ReLUアクティベーション関数からなる小さな(最大数百のパラメータを持つ)正確なNNを生成することができる。
しかしながら、我々のフレームワークは、一階述語論理仕様の決定可能な断片としてNNを合成できるという意味では一般的なものである。
関連論文リスト
- Provably Safe Neural Network Controllers via Differential Dynamic Logic [2.416907802598482]
NNCS検証のための制御理論の再利用を可能にする最初の一般手法を提案する。
dLの安全な制御エンベロープに基づいて、NN検証によって証明されたNNの仕様を導出する。
本稿では,NNCS の無限時間安全に関する dL 証明によって,仕様に忠実な NNCS の証明が反映されていることを示す。
論文 参考訳(メタデータ) (2024-02-16T16:15:25Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Scaling Model Checking for DNN Analysis via State-Space Reduction and
Input Segmentation (Extended Version) [12.272381003294026]
既存のフレームワークは、トレーニングされたNNに対して堅牢性と/または安全性を保証する。
我々は、広範囲のNNプロパティを分析するための最初のモデルチェックベースのフレームワークであるFANNetを提案した。
本研究は,形式的NN解析のスケーラビリティとタイミング効率を向上させるために,状態空間の削減と入力セグメント化手法を開発する。
論文 参考訳(メタデータ) (2023-06-29T22:18:07Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Edge Rewiring Goes Neural: Boosting Network Resilience via Policy
Gradient [62.660451283548724]
ResiNetは、さまざまな災害や攻撃に対する回復力のあるネットワークトポロジを発見するための強化学習フレームワークである。
ResiNetは複数のグラフに対してほぼ最適のレジリエンス向上を実現し,ユーティリティのバランスを保ちながら,既存のアプローチに比べて大きなマージンを持つことを示す。
論文 参考訳(メタデータ) (2021-10-18T06:14:28Z) - Provable Repair of Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、過去10年間で人気を博し、航空機の衝突回避などの安全上重要な領域で使われている。
本稿では,安全でない動作が見つかるとDNNの修正に対処する。
与えられた仕様を満たす新しいネットワークN'を構築するためにネットワークNを修復する問題である実証可能な修復問題を紹介します。
論文 参考訳(メタデータ) (2021-04-09T15:03:53Z) - Provably Correct Training of Neural Network Controllers Using
Reachability Analysis [3.04585143845864]
我々は、安全と生活性を満たすことが保証されるサイバー物理システムのためのニューラルネットワーク(NN)コントローラのトレーニングの問題を考える。
我々のアプローチは、動的システムのためのモデルベース設計手法とデータ駆動アプローチを組み合わせることで、この目標を達成することである。
論文 参考訳(メタデータ) (2021-02-22T07:08:11Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。