論文の概要: A Stochastic Approach to Classification Error Estimates in Convolutional
Neural Networks
- arxiv url: http://arxiv.org/abs/2401.06156v1
- Date: Thu, 21 Dec 2023 15:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 12:49:48.184769
- Title: A Stochastic Approach to Classification Error Estimates in Convolutional
Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークにおける分類誤差推定に対する確率的アプローチ
- Authors: Jan Peleska, Felix Br\"uning, Mario Gleirscher, Wen-ling Huang
- Abstract要約: 自動化のグレード(GoA)4では,将来の自動貨物列車の障害物検出機能を利用する。
本稿では,障害物検出機能から期待されるシステムレベルのハザード率を定量的に分析する。
センサ/パーセプタ融合を用いて、融合検出システムは、適用すべき安全保全レベルに対して許容できる危険度を満たすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This technical report presents research results achieved in the field of
verification of trained Convolutional Neural Network (CNN) used for image
classification in safety-critical applications. As running example, we use the
obstacle detection function needed in future autonomous freight trains with
Grade of Automation (GoA) 4. It is shown that systems like GoA 4 freight trains
are indeed certifiable today with new standards like ANSI/UL 4600 and ISO 21448
used in addition to the long-existing standards EN 50128 and EN 50129.
Moreover, we present a quantitative analysis of the system-level hazard rate to
be expected from an obstacle detection function. It is shown that using
sensor/perceptor fusion, the fused detection system can meet the tolerable
hazard rate deemed to be acceptable for the safety integrity level to be
applied (SIL-3). A mathematical analysis of CNN models is performed which
results in the identification of classification clusters and equivalence
classes partitioning the image input space of the CNN. These clusters and
classes are used to introduce a novel statistical testing method for
determining the residual error probability of a trained CNN and an associated
upper confidence limit. We argue that this greybox approach to CNN
verification, taking into account the CNN model's internal structure, is
essential for justifying that the statistical tests have covered the trained
CNN with its neurons and inter-layer mappings in a comprehensive way.
- Abstract(参考訳): この技術報告は、安全クリティカルな応用における画像分類に使用される訓練された畳み込みニューラルネットワーク(CNN)の検証における研究成果を示す。
実例では、将来の自動貨物列車で必要となる障害物検出機能であるgoa(gradle of automation)4を使用する。
従来のEN 50128やEN 50129に加えて、ANSI/UL 4600やISO 21448といった新しい規格で、GoA 4などの貨物列車が認証されていることが示されている。
さらに,障害物検出機能から期待されるシステムレベルのハザード率を定量的に分析する。
センサ/パーセプタ融合を用いて、融合検出システムは、適用すべき安全整合性レベルが許容できると見なされる許容危険度を満たすことができる(SIL-3)。
CNNモデルの数学的解析を行い、CNNの画像入力空間を分割する分類クラスタと等価クラスを識別する。
これらのクラスターとクラスは、訓練されたcnnの残差誤差確率と関連する高い信頼度限界を決定する新しい統計試験法を導入するために使用される。
我々は、CNNモデルの内部構造を考慮した、CNN検証に対するこのグレーボックスアプローチが、トレーニングされたCNNをニューロンと層間マッピングで包括的にカバーしたことを正当化するために不可欠であると論じる。
関連論文リスト
- Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Performance evaluation of Machine learning algorithms for Intrusion Detection System [0.40964539027092917]
本稿では機械学習(ML)技術を用いた侵入検知システム(IDS)の解析に焦点を当てた。
機械学習モデルのトレーニングと検証に使用されるKDD CUP-'99'侵入検出データセットを分析した。
論文 参考訳(メタデータ) (2023-10-01T06:35:37Z) - Target Detection on Hyperspectral Images Using MCMC and VI Trained
Bayesian Neural Networks [0.0]
ベイズニューラルネットワーク(BNN)は、NN予測と推定のための不確実性定量化(UQ)を提供する。
ハイパースペクトル画像(HSI)のターゲット検出におけるMCMC-とVI-トレーニングBNNの適用と比較を行った。
どちらのモデルも、高忠実度HSIターゲット検出シーンのアウト・オブ・ボックスツールを使用してトレーニングされている。
論文 参考訳(メタデータ) (2023-08-11T01:35:54Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Robust-by-Design Classification via Unitary-Gradient Neural Networks [66.17379946402859]
安全クリティカルシステムにおけるニューラルネットワークの使用には、敵攻撃が存在するため、安全で堅牢なモデルが必要である。
任意の入力 x の最小逆摂動を知るか、または同値に、分類境界から x の距離は、分類ロバスト性を評価し、証明可能な予測を与える。
Unitary-Gradient Neural Networkと呼ばれる新しいネットワークアーキテクチャが紹介される。
実験結果から,提案アーキテクチャは符号付き距離を近似し,単一の推論コストでxのオンライン分類が可能であることがわかった。
論文 参考訳(メタデータ) (2022-09-09T13:34:51Z) - VPN: Verification of Poisoning in Neural Networks [11.221552724154988]
我々は、別のニューラルネットワークセキュリティ問題、すなわちデータ中毒について研究する。
この場合、アタッカーがトレーニングデータのサブセットにトリガーを挿入するので、テスト時にこのトリガーが入力され、トレーニングされたモデルがターゲットクラスに誤って分類される。
我々は、市販の検証ツールでチェックできるプロパティとして、データ中毒のチェックを定式化する方法を示す。
論文 参考訳(メタデータ) (2022-05-08T15:16:05Z) - SAFE-OCC: A Novelty Detection Framework for Convolutional Neural Network
Sensors and its Application in Process Control [0.0]
本稿では,センサアクティベート特徴抽出ワンクラス分類(SAFE-OCC)と呼ばれる,畳み込みニューラルネットワーク(CNN)センサの新規検出フレームワークを提案する。
このフレームワークは,プロセス制御アーキテクチャにおけるコンピュータビジョンセンサの安全な利用を可能にする。
論文 参考訳(メタデータ) (2022-02-03T19:47:55Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - A Simple Framework to Quantify Different Types of Uncertainty in Deep
Neural Networks for Image Classification [0.0]
モデルの予測の不確実性を定量化することは、AIシステムの安全性を高めるために重要である。
これは、自動運転車の制御、医療画像分析、財務推定、法的分野など、エラーのコストが高いアプリケーションにとって極めて重要である。
本稿では,画像分類の課題に対して,Deep Neural Networksにおいて既知の3種類の不確実性を捕捉し,定量化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-17T15:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。