論文の概要: Performance Analysis of Out-of-Distribution Detection on Trained Neural
Networks
- arxiv url: http://arxiv.org/abs/2204.12378v1
- Date: Tue, 26 Apr 2022 15:24:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 16:24:18.139392
- Title: Performance Analysis of Out-of-Distribution Detection on Trained Neural
Networks
- Title(参考訳): トレーニングニューラルネットワークにおける分布外検出の性能解析
- Authors: Jens Henriksson, Christian Berger, Markus Borg, Lars Tornberg, Sankar
Raman Sathyamoorthy, Cristofer Englund
- Abstract要約: 我々は,4つのよく知られたディープラーニングアーキテクチャ上で,配当データと配当データとを分離する3つの手法を解析した。
その結果,モデルの品質によって,外乱検出性能が向上することが判明した。
トレーニング結果とスーパーバイザパフォーマンスの関係を理解することは,モデルの堅牢性向上に不可欠である。
- 参考スコア(独自算出の注目度): 8.934898793972879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several areas have been improved with Deep Learning during the past years.
Implementing Deep Neural Networks (DNN) for non-safety related applications
have shown remarkable achievements over the past years; however, for using DNNs
in safety critical applications, we are missing approaches for verifying the
robustness of such models. A common challenge for DNNs occurs when exposed to
out-of-distribution samples that are outside of the scope of a DNN, but which
result in high confidence outputs despite no prior knowledge of such input.
In this paper, we analyze three methods that separate between in- and
out-of-distribution data, called supervisors, on four well-known DNN
architectures. We find that the outlier detection performance improves with the
quality of the model. We also analyse the performance of the particular
supervisors during the training procedure by applying the supervisor at a
predefined interval to investigate its performance as the training proceeds. We
observe that understanding the relationship between training results and
supervisor performance is crucial to improve the model's robustness and to
indicate, what input samples require further measures to improve the robustness
of a DNN. In addition, our work paves the road towards an instrument for safety
argumentation for safety critical applications. This paper is an extended
version of our previous work presented at 2019 SEAA (cf. [1]); here, we
elaborate on the used metrics, add an additional supervisor and test them on
two additional datasets.
- Abstract(参考訳): 近年、Deep Learningによっていくつかの領域が改善されている。
非安全関連アプリケーションのためのディープニューラルネットワーク(DNN)の実装は、ここ数年で顕著な成果を上げてきたが、安全クリティカルなアプリケーションでDNNを使用するには、そのようなモデルの堅牢性を検証するためのアプローチが欠如している。
DNNの一般的な課題は、DNNのスコープ外にある分布外サンプルに曝露した場合に発生するが、そのような入力の事前知識がないにもかかわらず高い信頼度が出力される。
本稿では,4つのよく知られたDNNアーキテクチャを用いて,配当データと配当データとを分離する3つの手法を解析する。
その結果,モデルの品質が向上し,異常検出性能が向上することがわかった。
また,訓練の進行過程において,所定の間隔の監督者を適用することで,訓練過程における特定の監督者のパフォーマンスを分析した。
トレーニング結果と監督性能の関係を理解することは,モデルの堅牢性の向上と,DNNの堅牢性向上のためにどのような入力サンプルが必要かを示す上で重要である。
さらに,我々の研究は,安全クリティカルな応用のための安全議論のための手段への道を開いた。
本論文は,2019 seaa (cf. [1]) で発表された先行研究の拡張版である。ここでは,使用済みのメトリクスを詳述し,追加のスーパーバイザを追加して,さらに2つのデータセットでそれらをテストする。
関連論文リスト
- TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Iterative Assessment and Improvement of DNN Operational Accuracy [11.447394702830412]
DAIC (DNN Assessment and Improvement Cycle) は,オンライン擬似画像の「低コスト」とオフラインサンプリング技術「高コスト」を組み合わせた手法である。
予備的な結果は、この2つのアプローチを組み合わせる利点を示している。
論文 参考訳(メタデータ) (2023-03-02T14:21:54Z) - Cross-Modal Fine-Tuning: Align then Refine [83.37294254884446]
ORCAはクロスモーダルな微調整フレームワークであり、単一の大規模事前訓練モデルの適用範囲を様々に拡張する。
ORCAは12のモダリティから60以上のデータセットを含む3つのベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-11T16:32:28Z) - Composite Learning for Robust and Effective Dense Predictions [81.2055761433725]
マルチタスク学習は、目標タスクを補助タスクと協調的に最適化することで、より優れたモデル一般化を約束する。
自己監督型(補助的)タスクと密接な予測(目標)タスクを共同でトレーニングすることで、目標タスクの性能を継続的に向上し、補助タスクのラベル付けの必要性を排除できることが判明した。
論文 参考訳(メタデータ) (2022-10-13T17:59:16Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - An Intrusion Detection System based on Deep Belief Networks [1.535077825808595]
我々は,接続デバイスネットワーク内におけるサイバー攻撃検出におけるDBNの性能を開発し,評価する。
提案したDBNアプローチは,トレーニングデータセットに表現されていない攻撃の検出を著しく改善し,競争力と有望な結果を示す。
論文 参考訳(メタデータ) (2022-07-05T15:38:24Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - Performance Analysis of Out-of-Distribution Detection on Various Trained
Neural Networks [12.22753756637137]
ディープニューラルネットワーク(DNN)の一般的な課題は、これまで見つからなかった配布外サンプルに晒されたときに発生する。
本稿では,2つの著名なDNNについて,2つのスーパーバイザをさまざまなトレーニング設定で分析する。
私達は訓練のプロシージャの質とoutlierの検出の性能が改善することを見つけます。
論文 参考訳(メタデータ) (2021-03-29T12:52:02Z) - Sketching Curvature for Efficient Out-of-Distribution Detection for Deep
Neural Networks [32.629801680158685]
Sketching Curvature of OoD Detection (SCOD)は、訓練されたディープニューラルネットワークにタスク関連不確実性推定を装備するためのアーキテクチャに依存しないフレームワークである。
SCODは,既存のベースラインと比較して計算負担の少ないOoD検出性能の同等あるいは優れたOoD検出性能を達成できることを実証する。
論文 参考訳(メタデータ) (2021-02-24T21:34:40Z) - Designing Interpretable Approximations to Deep Reinforcement Learning [14.007731268271902]
ディープニューラルネットワーク(DNN)は、アルゴリズムのパフォーマンスのバーを設定する。
実際にそのようなハイパフォーマンスなDNNを使うことは不可能かもしれない。
この研究は、所望のパフォーマンスレベルを保持するだけでなく、例えば、DNNで表される潜伏した知識を簡潔に説明できるような縮小モデルを特定することを目指している。
論文 参考訳(メタデータ) (2020-10-28T06:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。