論文の概要: BBReach: Tight and Scalable Black-Box Reachability Analysis of Deep
Reinforcement Learning Systems
- arxiv url: http://arxiv.org/abs/2211.11127v1
- Date: Mon, 21 Nov 2022 00:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:29:11.363855
- Title: BBReach: Tight and Scalable Black-Box Reachability Analysis of Deep
Reinforcement Learning Systems
- Title(参考訳): BBReach: 深層強化学習システムの軽量でスケーラブルなブラックボックス到達可能性解析
- Authors: Jiaxu Tian and Dapeng Zhi and Si Liu and Peixin Wang and Guy Katz and
Min Zhang
- Abstract要約: 本稿では,DRLシステムのための新しい,タイトでスケーラブルなリーチビリティ解析手法を提案する。
抽象状態のトレーニングにより,組込みDNNをブラックボックスとして扱い,到達可能な集合のニューラルネットワークの過度な近似を回避する。
抽象的アプローチに固有の状態爆発問題に対処するため, 隣接区間集約アルゴリズムを考案した。
- 参考スコア(独自算出の注目度): 14.505432903939196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reachability analysis is a promising technique to automatically prove or
disprove the reliability and safety of AI-empowered software systems that are
developed by using Deep Reinforcement Learning (DRL). Existing approaches
suffer however from limited scalability and large overestimation as they must
over-approximate the complex and almost inexplicable system components, namely
deep neural networks (DNNs). In this paper we propose a novel, tight and
scalable reachability analysis approach for DRL systems. By training on
abstract states, our approach treats the embedded DNNs as black boxes to avoid
the over-approximation for neural networks in computing reachable sets. To
tackle the state explosion problem inherent to abstraction-based approaches, we
devise a novel adjacent interval aggregation algorithm which balances the
growth of abstract states and the overestimation caused by the abstraction. We
implement a tool, called BBReach, and assess it on an extensive benchmark of
control systems to demonstrate its tightness, scalability, and efficiency.
- Abstract(参考訳): 到達可能性分析(Reachability analysis)は、Deep Reinforcement Learning (DRL)を使用して開発されたAI搭載ソフトウェアシステムの信頼性と安全性を自動証明または反証する有望な手法である。
しかし既存のアプローチでは、複雑でほとんど説明できないシステムコンポーネント、すなわちディープニューラルネットワーク(dnn)を過剰に満たさなければならないため、スケーラビリティと大きな過大評価に苦しめられている。
本稿では,DRLシステムのための新しい,タイトでスケーラブルなリーチビリティ解析手法を提案する。
抽象状態のトレーニングにより,組込みDNNをブラックボックスとして扱い,到達可能な集合のニューラルネットワークの過度な近似を回避する。
抽象的アプローチに固有の状態爆発問題に取り組むために,抽象的状態の成長と抽象化による過大評価のバランスをとる新しい隣接区間集約アルゴリズムを考案する。
BBReachと呼ばれるツールを実装し、その厳密さ、スケーラビリティ、効率性を実証するために、制御システムの広範なベンチマークで評価する。
関連論文リスト
- Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Make Me a BNN: A Simple Strategy for Estimating Bayesian Uncertainty
from Pre-trained Models [40.38541033389344]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、様々なコンピュータビジョンタスクのための強力なツールであるが、信頼性の高い不確実性定量化に苦慮することが多い。
本稿では、DNNをBNNにシームレスに変換するシンプルでスケーラブルな戦略であるAdaptable Bayesian Neural Network (ABNN)を紹介する。
画像分類とセマンティックセグメンテーションタスクのための複数のデータセットにわたる広範囲な実験を行い、ABNNが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-12-23T16:39:24Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Pruning and Slicing Neural Networks using Formal Verification [0.2538209532048866]
ディープニューラルネットワーク(DNN)は、様々なコンピュータシステムにおいてますます重要な役割を担っている。
これらのネットワークを作成するために、エンジニアは通常、望ましいトポロジを指定し、自動トレーニングアルゴリズムを使用してネットワークの重みを選択する。
本稿では,近年のDNN検証の進歩を活用して,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-05-28T07:53:50Z) - Abstraction and Symbolic Execution of Deep Neural Networks with Bayesian
Approximation of Hidden Features [8.723426955657345]
本稿では,ディープニューラルネットワークとデータセットをベイズネットワークに抽象化する新しい抽象化手法を提案する。
我々は,DNNの隠蔽層から学習した隠れ特徴を特定するために,次元削減技術を利用している。
運用時間に稀な入力を検出するランタイム監視アプローチを導出できる。
論文 参考訳(メタデータ) (2021-03-05T14:28:42Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。