論文の概要: Provably-Safe Neural Network Training Using Hybrid Zonotope Reachability Analysis
- arxiv url: http://arxiv.org/abs/2501.13023v2
- Date: Tue, 01 Apr 2025 01:01:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-02 14:13:22.257781
- Title: Provably-Safe Neural Network Training Using Hybrid Zonotope Reachability Analysis
- Title(参考訳): ハイブリッドゾノトープの到達可能性解析を用いた安全なニューラルネットワークトレーニング
- Authors: Long Kiu Chung, Shreyas Kousik,
- Abstract要約: 安全クリティカルな制御アプリケーションにおいて、ニューラルネットワークの制約を強制することは困難である。
本稿では,線形整列単位(ReLU)非線形性を持つニューラルネットワークに対して,非アボジン入力セットの正確な画像化を促進する手法を提案する。
安全クリティカルシステムへの非アボジン入力のための前方不変ニューラルネットワークコントローラをトレーニングすることにより,本手法の実用性を実証する。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License:
- Abstract: Even though neural networks are being increasingly deployed in safety-critical control applications, it remains difficult to enforce constraints on their output, meaning that it is hard to guarantee safety in such settings. While many existing methods seek to verify a neural network's satisfaction of safety constraints, few address how to correct an unsafe network. The handful of works that extract a training signal from verification cannot handle non-convex sets, and are either conservative or slow. To begin addressing these challenges, this work proposes a neural network training method that can encourage the exact image of a non-convex input set for a neural network with rectified linear unit (ReLU) nonlinearities to avoid a non-convex unsafe region. This is accomplished by reachability analysis with scaled hybrid zonotopes, a modification of the existing hybrid zonotope set representation that enables parameterized scaling of non-convex polytopic sets with a differentiable collision check via mixed-integer linear programs (MILPs). The proposed method was shown to be effective and fast for networks with up to 240 neurons, with the computational complexity dominated by inverse operations on matrices that scale linearly in size with the number of neurons and complexity of input and unsafe sets. We demonstrate the practicality of our method by training a forward-invariant neural network controller for a non-convex input set to an affine system, as well as generating safe reach-avoid plans for a black-box dynamical system.
- Abstract(参考訳): ニューラルネットワークは、安全クリティカルな制御アプリケーションにますますデプロイされているが、出力に対する制約を強制することは困難であり、そのような設定で安全性を保証することは難しい。
既存の多くの手法は、ニューラルネットワークの安全制約に対する満足度を検証することを目指しているが、安全でないネットワークの修正方法に対処する方法はほとんどない。
検証からトレーニング信号を抽出する少数の作業は、非凸集合を扱うことができず、保守的または遅い。
これらの課題に対処するために、この研究は、修正線形単位(ReLU)非線形性を持つニューラルネットワークに対して、非凸な入力セットの正確なイメージを奨励し、非凸な安全領域を避けるニューラルネットワークトレーニング手法を提案する。
これは、混合整数線形プログラム(MILP)による異種衝突チェックによる非凸ポリトープ集合のパラメータ化スケーリングを可能にする、既存のハイブリッドゾノトープ集合表現の修正であるスケールドハイブリッドゾノトープによる到達性解析によって達成される。
提案手法は最大240個のニューロンを持つネットワークに対して有効かつ高速であることが示され、計算複雑性は、ニューロンの数と入力と安全でない集合の複雑さとを線形にスケールする行列上の逆演算に支配されている。
我々は,アフィン系への非凸入力セットのための前方不変ニューラルネットワークコントローラを訓練し,ブラックボックス力学系に対する安全なリーチアビド計画を生成することにより,本手法の実用性を実証する。
関連論文リスト
- ENFORCE: Exact Nonlinear Constrained Learning with Adaptive-depth Neural Projection [0.0]
ENFORCEは、非線形制約を正確に満たす予測を保証するニューラルネットワークアーキテクチャである。
適応深度ニューラルプロジェクションモジュールを構築し、その複雑さを動的に調整し、特定の問題と必要な許容レベルに適合させる。
論文 参考訳(メタデータ) (2025-02-10T18:52:22Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - Constrained Feedforward Neural Network Training via Reachability
Analysis [0.0]
安全上の制約に従うためにニューラルネットワークをトレーニングすることは、依然としてオープンな課題である。
本研究は, 整列線形単位(ReLU)非線形性を持つフィードフォワードニューラルネットワークを同時に訓練し, 検証する制約付き手法を提案する。
論文 参考訳(メタデータ) (2021-07-16T04:03:01Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - PEREGRiNN: Penalized-Relaxation Greedy Neural Network Verifier [1.1011268090482575]
我々は、ReLU NNの最も一般的な安全仕様を正式に検証するための新しいアプローチを導入する。
我々は, 線形実現可能性チェッカーとしてだけでなく, 解法で許容される緩和量のペナルティ化の手段として, 凸解法を用いる。
論文 参考訳(メタデータ) (2020-06-18T21:33:07Z) - Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers via Semidefinite Programming [19.51345816555571]
本稿では,ニューラルネットワークを用いた線形時間変化システムの安全性検証のための新しいフォワードリーチビリティ解析手法を提案する。
半有限計画法を用いて、これらの近似到達可能な集合を計算できることが示される。
提案手法は,まずディープニューラルネットワークを用いて非線形モデル予測制御器を近似し,その解析ツールを用いて閉ループシステムの有限時間到達性と制約満足度を証明した。
論文 参考訳(メタデータ) (2020-04-16T18:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。