論文の概要: Provably-Safe Neural Network Training Using Hybrid Zonotope Reachability Analysis
- arxiv url: http://arxiv.org/abs/2501.13023v1
- Date: Wed, 22 Jan 2025 17:13:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:53:17.609531
- Title: Provably-Safe Neural Network Training Using Hybrid Zonotope Reachability Analysis
- Title(参考訳): ハイブリッドゾノトープの到達可能性解析を用いた安全なニューラルネットワークトレーニング
- Authors: Long Kiu Chung, Shreyas Kousik,
- Abstract要約: 本稿では,ニューラルネットワークによる正確な設定を奨励し,到達不能な集合を避けるニューラルネットワークトレーニング手法を提案する。
提案手法は高速で、線形プログラムの解法に匹敵する計算複雑性を持つ。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License:
- Abstract: Even though neural networks are being increasingly deployed in safety-critical applications, it remains difficult to enforce constraints on their output, meaning that it is hard to guarantee safety in such settings. Towards addressing this, many existing methods seek to verify a neural network's satisfaction of safety constraints, but do not address how to correct an "unsafe" network. On the other hand, the few works that extract a training signal from verification cannot handle non-convex sets, and are either conservative or slow. To address these challenges, this work proposes a neural network training method that can encourage the exact reachable set of a non-convex input set through a neural network with rectified linear unit (ReLU) nonlinearities to avoid a non-convex unsafe region, using recent results in non-convex set representation with hybrid zonotopes and extracting gradient information from mixed-integer linear programs (MILPs). The proposed method is fast, with the computational complexity of each training iteration comparable to that of solving a linear program (LP) with number of dimensions and constraints linear to the number of neurons and complexity of input and unsafe sets. For a neural network with three hidden layers of width 30, the method was able to drive the reachable set of a non-convex input set with 55 generators and 26 constraints out of a non-convex unsafe region with 21 generators and 11 constraints in 490 seconds.
- Abstract(参考訳): ニューラルネットワークは、安全クリティカルなアプリケーションにますますデプロイされているが、出力に対する制約を強制することは困難であり、そのような設定で安全性を保証することは難しい。
これに対応するために、既存の多くのメソッドは、ニューラルネットワークの安全制約に対する満足度を検証することを目指しているが、"安全でない"ネットワークの修正方法には対処していない。
一方、検証からトレーニング信号を抽出する数少ない作品では、非凸集合を扱えず、保守的か遅いかのいずれかである。
これらの課題に対処するため,ニューラルネットワークによる非凸入力の正確な到達性セットを正則線形単位(ReLU)非線形性で促進し,非凸非安全領域を回避するニューラルネットワークトレーニング手法を提案する。
提案手法は高速で、各トレーニングイテレーションの計算複雑性は、ニューロンの数と入力と安全でない集合の複雑さに線形な次元と制約を持つ線形プログラム(LP)に匹敵する。
幅30の3つの隠れレイヤを持つニューラルネットワークでは、55個のジェネレータと26個の制約を備えた非凸入力セットの到達可能なセットを、490秒で21個のジェネレータと11個の制約を持つ非凸アンセーフ領域から駆動することができた。
関連論文リスト
- Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - OVERT: An Algorithm for Safety Verification of Neural Network Control
Policies for Nonlinear Systems [31.3812947670948]
本稿では,ニューラルネットワーク制御ポリシーの安全性検証のための音響アルゴリズムOVERTを提案する。
OVERT の中心的な概念は、最適にきつく片方向の線形境界を持つ非線形関数を抽象化することである。
オーバートは、到達可能な集合の時間的および厳密性の両方において、既存の方法と好意的に比較する。
論文 参考訳(メタデータ) (2021-08-03T00:41:27Z) - Constrained Feedforward Neural Network Training via Reachability
Analysis [0.0]
安全上の制約に従うためにニューラルネットワークをトレーニングすることは、依然としてオープンな課題である。
本研究は, 整列線形単位(ReLU)非線形性を持つフィードフォワードニューラルネットワークを同時に訓練し, 検証する制約付き手法を提案する。
論文 参考訳(メタデータ) (2021-07-16T04:03:01Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - PEREGRiNN: Penalized-Relaxation Greedy Neural Network Verifier [1.1011268090482575]
我々は、ReLU NNの最も一般的な安全仕様を正式に検証するための新しいアプローチを導入する。
我々は, 線形実現可能性チェッカーとしてだけでなく, 解法で許容される緩和量のペナルティ化の手段として, 凸解法を用いる。
論文 参考訳(メタデータ) (2020-06-18T21:33:07Z) - Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers via Semidefinite Programming [19.51345816555571]
本稿では,ニューラルネットワークを用いた線形時間変化システムの安全性検証のための新しいフォワードリーチビリティ解析手法を提案する。
半有限計画法を用いて、これらの近似到達可能な集合を計算できることが示される。
提案手法は,まずディープニューラルネットワークを用いて非線形モデル予測制御器を近似し,その解析ツールを用いて閉ループシステムの有限時間到達性と制約満足度を証明した。
論文 参考訳(メタデータ) (2020-04-16T18:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。