論文の概要: Benchmarking Probabilistic Deep Learning Methods for License Plate
Recognition
- arxiv url: http://arxiv.org/abs/2302.01427v1
- Date: Thu, 2 Feb 2023 21:37:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 18:06:34.635508
- Title: Benchmarking Probabilistic Deep Learning Methods for License Plate
Recognition
- Title(参考訳): ライセンスプレート認識のための確率的深層学習手法のベンチマーク
- Authors: Franziska Schirrmacher, Benedikt Lorch, Anatol Maier, Christian Riess
- Abstract要約: 本稿では,ライセンスプレート認識における予測の不確かさを明示的にモデル化する。
合成ノイズやぼやけた低解像度画像の実験は、予測の不確実性が確実に間違った予測を見出すことを示した。
- 参考スコア(独自算出の注目度): 11.772116128679116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based algorithms for automated license plate recognition implicitly
assume that the training and test data are well aligned. However, this may not
be the case under extreme environmental conditions, or in forensic applications
where the system cannot be trained for a specific acquisition device.
Predictions on such out-of-distribution images have an increased chance of
failing. But this failure case is oftentimes hard to recognize for a human
operator or an automated system. Hence, in this work we propose to model the
prediction uncertainty for license plate recognition explicitly. Such an
uncertainty measure allows to detect false predictions, indicating an analyst
when not to trust the result of the automated license plate recognition. In
this paper, we compare three methods for uncertainty quantification on two
architectures. The experiments on synthetic noisy or blurred low-resolution
images show that the predictive uncertainty reliably finds wrong predictions.
We also show that a multi-task combination of classification and
super-resolution improves the recognition performance by 109\% and the
detection of wrong predictions by 29 %.
- Abstract(参考訳): 自動ライセンスプレート認識のための学習ベースのアルゴリズムは、トレーニングとテストデータが適切に一致していると暗黙的に仮定する。
しかし、極端な環境条件下、または特定の取得装置のためにシステムが訓練できない法医学的応用においては、このことは当てはまらない。
このような分布外画像の予測は失敗する可能性がある。
しかし、この障害ケースは、人間のオペレータや自動システムの認識が難しいことが多い。
そこで本研究では,ライセンスプレート認識の予測の不確かさを明示的にモデル化することを提案する。
このような不確実性測定は、自動ナンバープレート認識の結果を信頼しない場合にアナリストを示す誤った予測を検出することができる。
本稿では,2つのアーキテクチャ上での不確実性定量化を行う3つの手法を比較する。
合成ノイズやぼやけた低分解能画像の実験は、予測の不確実性が確実に間違った予測を見出すことを示した。
また,マルチタスクの分類と超解像の組み合わせにより,認識性能が109\%向上し,誤予測が29%向上することを示した。
関連論文リスト
- Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - A Data-Driven Measure of Relative Uncertainty for Misclassification
Detection [25.947610541430013]
誤分類検出のための観測者に対して,不確実性に関するデータ駆動測度を導入する。
ソフト予測の分布パターンを学習することにより,不確実性を測定することができる。
複数の画像分類タスクに対する経験的改善を示し、最先端の誤分類検出方法より優れていることを示す。
論文 参考訳(メタデータ) (2023-06-02T17:32:03Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Calibrated Selective Classification [38.01669058597009]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - STUN: Self-Teaching Uncertainty Estimation for Place Recognition [10.553297191854837]
本稿では,その場所を同時に予測し,入力画像から予測の不確かさを推定する自己学習フレームワークSTUNを提案する。
大規模ピッツバーグ30kデータセットに対する実験結果から,STUNは認識精度と不確実性評価の品質の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-03-03T16:59:42Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Can We Leverage Predictive Uncertainty to Detect Dataset Shift and
Adversarial Examples in Android Malware Detection? [20.96638126913256]
我々は6つのキャリブレーション法で4つのオフ・ザ・シェルフ検出器を変換することで、24個のAndroidマルウェア検出器を再設計し、構築する。
データ不均衡を扱う3つの指標を含む9つの指標で、不確実性を定量化します。
予測された逆例のラベルに関連する不確かさを定量化することは、オープンな問題である。
論文 参考訳(メタデータ) (2021-09-20T16:16:25Z) - An Uncertainty Estimation Framework for Probabilistic Object Detection [5.83620245905973]
本稿では,物体検出における不確実性を推定する2つの一般的な手法を組み合わせた新しい手法を提案する。
我々のフレームワークは、予測の不確実性を近似するために、深いアンサンブルとモンテカルロのドロップアウトを利用する。
論文 参考訳(メタデータ) (2021-06-28T22:29:59Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。