論文の概要: Taming Reachability Analysis of DNN-Controlled Systems via
Abstraction-Based Training
- arxiv url: http://arxiv.org/abs/2211.11127v2
- Date: Tue, 31 Oct 2023 13:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 04:17:52.174995
- Title: Taming Reachability Analysis of DNN-Controlled Systems via
Abstraction-Based Training
- Title(参考訳): 抽象的学習によるdnn制御システムのtaming reachability解析
- Authors: Jiaxu Tian and Dapeng Zhi and Si Liu and Peixin Wang and Guy Katz and
Min Zhang
- Abstract要約: 本稿では, 到達可能性解析における過剰近似DNNの欠如を回避するための, 抽象的アプローチを提案する。
我々は、実数をトレーニングの間隔に抽象化する抽象層を挿入することで、従来のDNNを拡張した。
我々は、DNN制御システムに対する最初のブラックボックス到達可能性分析手法を考案し、訓練されたDNNは抽象状態に対するアクションのためのブラックボックスオラクルとしてのみクエリされる。
- 参考スコア(独自算出の注目度): 14.787056022080625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The intrinsic complexity of deep neural networks (DNNs) makes it challenging
to verify not only the networks themselves but also the hosting DNN-controlled
systems. Reachability analysis of these systems faces the same challenge.
Existing approaches rely on over-approximating DNNs using simpler polynomial
models. However, they suffer from low efficiency and large overestimation, and
are restricted to specific types of DNNs. This paper presents a novel
abstraction-based approach to bypass the crux of over-approximating DNNs in
reachability analysis. Specifically, we extend conventional DNNs by inserting
an additional abstraction layer, which abstracts a real number to an interval
for training. The inserted abstraction layer ensures that the values
represented by an interval are indistinguishable to the network for both
training and decision-making. Leveraging this, we devise the first black-box
reachability analysis approach for DNN-controlled systems, where trained DNNs
are only queried as black-box oracles for the actions on abstract states. Our
approach is sound, tight, efficient, and agnostic to any DNN type and size. The
experimental results on a wide range of benchmarks show that the DNNs trained
by using our approach exhibit comparable performance, while the reachability
analysis of the corresponding systems becomes more amenable with significant
tightness and efficiency improvement over the state-of-the-art white-box
approaches.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の本質的な複雑さは、ネットワーク自体だけでなく、ホストするDNN制御システムの検証を困難にしている。
これらのシステムの到達可能性分析は同じ課題に直面している。
既存のアプローチは、単純な多項式モデルを用いた過剰近似DNNに依存している。
しかし、それらは低い効率と大きな過大評価に悩まされ、特定のタイプのDNNに制限される。
本稿では,到達可能性解析における過剰近似DNNの欠如を回避するための,抽象的アプローチを提案する。
具体的には、実数をトレーニングの間隔に抽象化する抽象層を挿入することで、従来のDNNを拡張します。
挿入された抽象層は、インターバルで表される値がトレーニングと意思決定の両方のためにネットワークと区別できないことを保証します。
これを利用して、DNN制御システムに対する最初のブラックボックス到達可能性分析アプローチを考案し、訓練されたDNNは抽象状態に対するアクションのためのブラックボックスオラクルとしてのみクエリされる。
当社のアプローチは,dnnのタイプやサイズに依存しない,健全でタイトで効率的です。
幅広いベンチマーク実験結果から,本手法を用いて訓練したdnnは同等の性能を示し,対応するシステムの到達可能性解析は,最先端のホワイトボックスアプローチよりも高いタイトさと効率改善により,より快適になることが示された。
関連論文リスト
- Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Make Me a BNN: A Simple Strategy for Estimating Bayesian Uncertainty
from Pre-trained Models [40.38541033389344]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、様々なコンピュータビジョンタスクのための強力なツールであるが、信頼性の高い不確実性定量化に苦慮することが多い。
本稿では、DNNをBNNにシームレスに変換するシンプルでスケーラブルな戦略であるAdaptable Bayesian Neural Network (ABNN)を紹介する。
画像分類とセマンティックセグメンテーションタスクのための複数のデータセットにわたる広範囲な実験を行い、ABNNが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-12-23T16:39:24Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Pruning and Slicing Neural Networks using Formal Verification [0.2538209532048866]
ディープニューラルネットワーク(DNN)は、様々なコンピュータシステムにおいてますます重要な役割を担っている。
これらのネットワークを作成するために、エンジニアは通常、望ましいトポロジを指定し、自動トレーニングアルゴリズムを使用してネットワークの重みを選択する。
本稿では,近年のDNN検証の進歩を活用して,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-05-28T07:53:50Z) - Abstraction and Symbolic Execution of Deep Neural Networks with Bayesian
Approximation of Hidden Features [8.723426955657345]
本稿では,ディープニューラルネットワークとデータセットをベイズネットワークに抽象化する新しい抽象化手法を提案する。
我々は,DNNの隠蔽層から学習した隠れ特徴を特定するために,次元削減技術を利用している。
運用時間に稀な入力を検出するランタイム監視アプローチを導出できる。
論文 参考訳(メタデータ) (2021-03-05T14:28:42Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。