論文の概要: Abstraction and Symbolic Execution of Deep Neural Networks with Bayesian
Approximation of Hidden Features
- arxiv url: http://arxiv.org/abs/2103.03704v1
- Date: Fri, 5 Mar 2021 14:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:38:44.730680
- Title: Abstraction and Symbolic Execution of Deep Neural Networks with Bayesian
Approximation of Hidden Features
- Title(参考訳): 隠れ特徴のベイズ近似によるディープニューラルネットワークの抽象化とシンボリック実行
- Authors: Nicolas Berthier, Amany Alshareef, James Sharp, Sven Schewe, Xiaowei
Huang
- Abstract要約: 本稿では,ディープニューラルネットワークとデータセットをベイズネットワークに抽象化する新しい抽象化手法を提案する。
我々は,DNNの隠蔽層から学習した隠れ特徴を特定するために,次元削減技術を利用している。
運用時間に稀な入力を検出するランタイム監視アプローチを導出できる。
- 参考スコア(独自算出の注目度): 8.723426955657345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intensive research has been conducted on the verification and validation of
deep neural networks (DNNs), aiming to understand if, and how, DNNs can be
applied to safety critical applications. However, existing verification and
validation techniques are limited by their scalability, over both the size of
the DNN and the size of the dataset. In this paper, we propose a novel
abstraction method which abstracts a DNN and a dataset into a Bayesian network
(BN). We make use of dimensionality reduction techniques to identify hidden
features that have been learned by hidden layers of the DNN, and associate each
hidden feature with a node of the BN. On this BN, we can conduct probabilistic
inference to understand the behaviours of the DNN processing data. More
importantly, we can derive a runtime monitoring approach to detect in
operational time rare inputs and covariate shift of the input data. We can also
adapt existing structural coverage-guided testing techniques (i.e., based on
low-level elements of the DNN such as neurons), in order to generate test cases
that better exercise hidden features. We implement and evaluate the BN
abstraction technique using our DeepConcolic tool available at
https://github.com/TrustAI/DeepConcolic.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)の検証と検証に関する集中的な研究が行われており、DNNが安全クリティカルなアプリケーションに適用できるかどうか、そしてどのように適用できるかを理解しています。
しかし、既存の検証と検証技術は、DNNのサイズとデータセットのサイズの両方でスケーラビリティによって制限されている。
本稿では,DNNとデータセットをベイズネットワーク(BN)に抽象化する新しい抽象化手法を提案する。
本研究では,DNNの隠蔽層で学習した隠れ特徴を識別するために次元削減技術を使用し,各隠蔽特徴をBNのノードに関連付ける。
このBNでは、DNN処理データの挙動を理解するために確率推論を行うことができる。
さらに重要なことは、運用時のレアインプットの検出と入力データの共変シフトのためのランタイム監視アプローチを導出できることです。
また、既存の構造カバレッジガイドによるテスト技術(すなわち、ニューロンなどのDNNの低レベル要素に基づく)を適応させ、隠れた機能をよりよく行使するテストケースを生成することもできる。
DeepConcolicツールを使用してBN抽象化技術を実装し、評価します。
関連論文リスト
- SFOD: Spiking Fusion Object Detector [10.888008544975662]
Spiking Fusion Object Detector (SFOD)は、SNNベースのオブジェクト検出のためのシンプルで効率的なアプローチである。
我々は、イベントカメラに適用されたSNNにおいて、異なるスケールのフィーチャーマップを初めて融合させる、スパイキングフュージョンモジュールを設計する。
我々は、NCARデータセット上で93.7%の精度を達成し、SNNに基づいて最先端の分類結果を確立する。
論文 参考訳(メタデータ) (2024-03-22T13:24:50Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - Model-Agnostic Reachability Analysis on Deep Neural Networks [25.54542656637704]
我々はDeepAgnと呼ばれるモデルに依存しない検証フレームワークを開発した。
FNN、リカレントニューラルネットワーク(RNN)、あるいは両者の混合に適用することができる。
レイヤやパラメータといったネットワークの内部構造にアクセスする必要はない。
論文 参考訳(メタデータ) (2023-04-03T09:01:59Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Taming Reachability Analysis of DNN-Controlled Systems via
Abstraction-Based Training [14.787056022080625]
本稿では, 到達可能性解析における過剰近似DNNの欠如を回避するための, 抽象的アプローチを提案する。
我々は、実数をトレーニングの間隔に抽象化する抽象層を挿入することで、従来のDNNを拡張した。
我々は、DNN制御システムに対する最初のブラックボックス到達可能性分析手法を考案し、訓練されたDNNは抽象状態に対するアクションのためのブラックボックスオラクルとしてのみクエリされる。
論文 参考訳(メタデータ) (2022-11-21T00:11:50Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。