論文の概要: Performance Analysis of Out-of-Distribution Detection on Various Trained
Neural Networks
- arxiv url: http://arxiv.org/abs/2103.15580v1
- Date: Mon, 29 Mar 2021 12:52:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 22:15:39.369249
- Title: Performance Analysis of Out-of-Distribution Detection on Various Trained
Neural Networks
- Title(参考訳): 各種訓練ニューラルネットワークにおける分布外検出の性能解析
- Authors: Jens Henriksson, Christian Berger, Markus Borg, Lars Tornberg, Sankar
Raman Sathyamoorthy, Cristofer Englund
- Abstract要約: ディープニューラルネットワーク(DNN)の一般的な課題は、これまで見つからなかった配布外サンプルに晒されたときに発生する。
本稿では,2つの著名なDNNについて,2つのスーパーバイザをさまざまなトレーニング設定で分析する。
私達は訓練のプロシージャの質とoutlierの検出の性能が改善することを見つけます。
- 参考スコア(独自算出の注目度): 12.22753756637137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several areas have been improved with Deep Learning during the past years.
For non-safety related products adoption of AI and ML is not an issue, whereas
in safety critical applications, robustness of such approaches is still an
issue. A common challenge for Deep Neural Networks (DNN) occur when exposed to
out-of-distribution samples that are previously unseen, where DNNs can yield
high confidence predictions despite no prior knowledge of the input.
In this paper we analyse two supervisors on two well-known DNNs with varied
setups of training and find that the outlier detection performance improves
with the quality of the training procedure. We analyse the performance of the
supervisor after each epoch during the training cycle, to investigate
supervisor performance as the accuracy converges. Understanding the
relationship between training results and supervisor performance is valuable to
improve robustness of the model and indicates where more work has to be done to
create generalized models for safety critical applications.
- Abstract(参考訳): 近年、Deep Learningによっていくつかの領域が改善されている。
非安全関連製品では、AIとMLの採用は問題にならないが、安全クリティカルなアプリケーションでは、そのようなアプローチの堅牢性は依然として問題である。
ディープニューラルネットワーク(dnn)に対する一般的な課題は、以前には認識されていなかった分散サンプルに露出した場合に発生し、dnnは入力の事前知識がなくても高い信頼度を予測できる。
本稿では,トレーニング設定の異なる2つの有名なdnnにおける2つのスーパーバイザの分析を行い,トレーニング手順の品質によって異常検出性能が向上することを示す。
トレーニングサイクル中の各エポック後のスーパーバイザーのパフォーマンスを分析し、精度が収束するにつれてスーパーバイザーのパフォーマンスを調査する。
トレーニング結果と監視性能の関係を理解することはモデルの堅牢性向上に有用であり、安全クリティカルなアプリケーションのための一般化されたモデルを作成するために、より多くの作業を行う必要があることを示す。
関連論文リスト
- Dissecting Deep RL with High Update Ratios: Combatting Value Divergence [21.282292112642747]
ネットワークパラメータをリセットすることなく、深層強化学習アルゴリズムが学習能力を維持できることを示す。
我々は,大規模な更新率での学習を可能にする,単純な単球正規化を採用している。
論文 参考訳(メタデータ) (2024-03-09T19:56:40Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Iterative Assessment and Improvement of DNN Operational Accuracy [11.447394702830412]
DAIC (DNN Assessment and Improvement Cycle) は,オンライン擬似画像の「低コスト」とオフラインサンプリング技術「高コスト」を組み合わせた手法である。
予備的な結果は、この2つのアプローチを組み合わせる利点を示している。
論文 参考訳(メタデータ) (2023-03-02T14:21:54Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Performance Analysis of Out-of-Distribution Detection on Trained Neural
Networks [8.934898793972879]
我々は,4つのよく知られたディープラーニングアーキテクチャ上で,配当データと配当データとを分離する3つの手法を解析した。
その結果,モデルの品質によって,外乱検出性能が向上することが判明した。
トレーニング結果とスーパーバイザパフォーマンスの関係を理解することは,モデルの堅牢性向上に不可欠である。
論文 参考訳(メタデータ) (2022-04-26T15:24:38Z) - Neural Network Repair with Reachability Analysis [10.384532888747993]
安全は次世代の自律性にとって重要な問題であり、知覚と制御のためにディープニューラルネットワークに大きく依存する可能性が高い。
本研究は,安全クリティカルシステムにおける安全でないDNNを到達可能性解析で修復する枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-09T17:56:51Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。