論文の概要: You Can't See the Forest for Its Trees: Assessing Deep Neural Network
Testing via NeuraL Coverage
- arxiv url: http://arxiv.org/abs/2112.01955v1
- Date: Fri, 3 Dec 2021 15:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 18:38:45.636902
- Title: You Can't See the Forest for Its Trees: Assessing Deep Neural Network
Testing via NeuraL Coverage
- Title(参考訳): 木々の森は見えない:NeuraLによる深層ニューラルネットワークテストの評価
- Authors: Yuanyuan Yuan, Qi Pang, Shuai Wang
- Abstract要約: 我々はこれらの設計要件をすべて満たす新しい基準であるNLCを提案する。
NLCは,様々なタスクにおけるテストスイートの多様性と大きく相関していることが実証された。
NLCにより誘導される試験入力変異は、露出した誤動作の質と多様性を高める。
- 参考スコア(独自算出の注目度): 8.221850343231065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper summarizes eight design requirements for DNN testing criteria,
taking into account distribution properties and practical concerns. We then
propose a new criterion, NLC, that satisfies all of these design requirements.
NLC treats a single DNN layer as the basic computational unit (rather than a
single neuron) and captures four critical features of neuron output
distributions. Thus, NLC is denoted as NeuraL Coverage, which more accurately
describes how neural networks comprehend inputs via approximated distributions
rather than neurons. We demonstrate that NLC is significantly correlated with
the diversity of a test suite across a number of tasks (classification and
generation) and data formats (image and text). Its capacity to discover DNN
prediction errors is promising. Test input mutation guided by NLC result in a
greater quality and diversity of exposed erroneous behaviors.
- Abstract(参考訳): 本稿では,DNN試験基準の8つの設計要件を要約し,分布特性と実用上の懸念を考察する。
次に、これらの設計要件をすべて満たす新しい基準であるNLCを提案する。
NLCは単一のDNN層を(単一のニューロンではなく)基本的な計算単位として扱い、ニューロンの出力分布の4つの重要な特徴を捉える。
したがって、NLCはNeuraL Coverageと呼ばれ、ニューラルネットワークがニューロンよりも近似分布を介して入力をどう理解するかをより正確に記述している。
我々は、nlcが多数のタスク(分類と生成)とデータフォーマット(画像とテキスト)にわたるテストスイートの多様性と著しく相関していることを示します。
DNN予測エラーを発見する能力は有望だ。
NLCにより誘導される試験入力変異は、露出した誤動作の質と多様性を高める。
関連論文リスト
- Use of Parallel Explanatory Models to Enhance Transparency of Neural Network Configurations for Cell Degradation Detection [18.214293024118145]
我々は,ニューラルネットワークの内部動作を照らし,理解するための並列モデルを構築している。
RNNの各層が入力分布を変換して検出精度を高める方法を示す。
同時に、精度の向上を制限するために作用する副作用も発見する。
論文 参考訳(メタデータ) (2024-04-17T12:22:54Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - SAfER: Layer-Level Sensitivity Assessment for Efficient and Robust
Neural Network Inference [20.564198591600647]
ディープニューラルネットワーク(DNN)は、ほとんどのコンピュータビジョンタスクにおいて優れたパフォーマンスを示す。
自律運転や医療画像などの重要な応用には、その行動の調査も必要である。
DNNの属性は、DNNの予測と入力の関係を研究することである。
論文 参考訳(メタデータ) (2023-08-09T07:45:51Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - Reachability In Simple Neural Networks [2.7195102129095003]
NP-hardnessは、単純な仕様とニューラルネットワークの制限されたクラスをすでに保持していることを示す。
我々は、ニューラルネットワーク検証研究のこの方向の展開の可能性について、徹底的な議論と展望を行う。
論文 参考訳(メタデータ) (2022-03-15T14:25:44Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - Spiking Neural Networks with Single-Spike Temporal-Coded Neurons for
Network Intrusion Detection [6.980076213134383]
スパイキングニューラルネット(SNN)は、その強い生物楽観性と高いエネルギー効率のために興味深い。
しかし、その性能は従来のディープニューラルネットワーク(DNN)よりもはるかに遅れている。
論文 参考訳(メタデータ) (2020-10-15T14:46:18Z) - Exact posterior distributions of wide Bayesian neural networks [51.20413322972014]
正確なBNN後方収束は、前者のGP限界によって誘導されるものと(弱く)収束することを示す。
実験的な検証のために、リジェクションサンプリングにより、小さなデータセット上で有限BNNから正確なサンプルを生成する方法を示す。
論文 参考訳(メタデータ) (2020-06-18T13:57:04Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。