論文の概要: Generate and Verify: Semantically Meaningful Formal Analysis of Neural
Network Perception Systems
- arxiv url: http://arxiv.org/abs/2012.09313v1
- Date: Wed, 16 Dec 2020 23:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:46:51.782368
- Title: Generate and Verify: Semantically Meaningful Formal Analysis of Neural
Network Perception Systems
- Title(参考訳): 生成と検証:ニューラルネットワーク知覚システムの意味のある形式解析
- Authors: Chris R. Serrano and Pape M. Sylla and Michael A. Warren
- Abstract要約: ニューラルネットワーク認識システムの精度を評価するためにテストが続けられている。
我々は、モデルが常に基底真理に結びついたある誤差内で推定を生成することを証明するために、ニューラルネットワークの検証を用いる。
- 参考スコア(独自算出の注目度): 2.2559617939136505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Testing remains the primary method to evaluate the accuracy of neural network
perception systems. Prior work on the formal verification of neural network
perception models has been limited to notions of local adversarial robustness
for classification with respect to individual image inputs. In this work, we
propose a notion of global correctness for neural network perception models
performing regression with respect to a generative neural network with a
semantically meaningful latent space. That is, against an infinite set of
images produced by a generative model over an interval of its latent space, we
employ neural network verification to prove that the model will always produce
estimates within some error bound of the ground truth. Where the perception
model fails, we obtain semantically meaningful counter-examples which carry
information on concrete states of the system of interest that can be used
programmatically without human inspection of corresponding generated images.
Our approach, Generate and Verify, provides a new technique to gather insight
into the failure cases of neural network perception systems and provide
meaningful guarantees of correct behavior in safety critical applications.
- Abstract(参考訳): テストは、ニューラルネットワーク知覚システムの精度を評価する主要な方法である。
ニューラルネットワーク知覚モデルの形式的検証に関する以前の研究は、個々の画像入力に対する分類の局所的逆ロバスト性の概念に限定されてきた。
本研究では,意味的に有意味な潜在空間を持つ生成型ニューラルネットワークに対して回帰を行うニューラルネットワーク知覚モデルに対する大域的正しさの概念を提案する。
すなわち、生成モデルが潜在空間の間隔で生成する無限の画像に対して、ニューラルネットワークの検証を用いて、モデルが基底真理の何らかの誤差境界内で常に推定値を生成することを証明する。
知覚モデルが失敗すると、対応する画像の人間による検査なしにプログラム的に使用できる興味のあるシステムの具体的状態に関する情報を運ぶ意味的に有意義な反例を得る。
我々のアプローチであるGenerate and Verifyは、ニューラルネットワーク認識システムの障害事例に関する洞察を集めるための新しい技術を提供し、安全クリティカルなアプリケーションにおける正しい振る舞いの有意義な保証を提供する。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Fully Automatic Neural Network Reduction for Formal Verification [8.017543518311196]
到達可能性解析を用いたニューラルネットワークの完全自動・音量低減手法を提案する。
音質は、低減されたネットワークの検証が元のネットワークの検証を必要とすることを保証します。
提案手法は, ニューロンの数を, 小さい外近似で, 元のニューロン数のごく一部に減らすことができることを示す。
論文 参考訳(メタデータ) (2023-05-03T07:13:47Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Improving Video Instance Segmentation by Light-weight Temporal
Uncertainty Estimates [11.580916951856256]
本稿では,インスタンスセグメンテーションネットワークの不確かさをモデル化するための時間動的手法を提案する。
本稿では,偽陽性の検出と予測品質の推定に本手法を適用した。
提案手法は、容易に訓練されたニューラルネットワークとビデオシーケンス入力のみを必要とする。
論文 参考訳(メタデータ) (2020-12-14T13:39:05Z) - Towards Repairing Neural Networks Correctly [6.600380575920419]
本稿では,ニューラルネットワークの正確性を保証するための実行時検証手法を提案する。
実験結果から,本手法は特性を満たすことが保証されたニューラルネットワークを効果的に生成することが示された。
論文 参考訳(メタデータ) (2020-12-03T12:31:07Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Exploiting Verified Neural Networks via Floating Point Numerical Error [15.639601066641099]
検証者は、ニューラルネットワークが空間内のすべての入力に対して特定の特性を保証するかどうかに答えようとしている。
浮動小数点誤差の無視は、実際に体系的に活用できる不健全な検証につながることを示す。
論文 参考訳(メタデータ) (2020-03-06T03:58:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。