論文の概要: Benchmarking Probabilistic Deep Learning Methods for License Plate
Recognition
- arxiv url: http://arxiv.org/abs/2302.01427v1
- Date: Thu, 2 Feb 2023 21:37:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 18:06:34.635508
- Title: Benchmarking Probabilistic Deep Learning Methods for License Plate
Recognition
- Title(参考訳): ライセンスプレート認識のための確率的深層学習手法のベンチマーク
- Authors: Franziska Schirrmacher, Benedikt Lorch, Anatol Maier, Christian Riess
- Abstract要約: 本稿では,ライセンスプレート認識における予測の不確かさを明示的にモデル化する。
合成ノイズやぼやけた低解像度画像の実験は、予測の不確実性が確実に間違った予測を見出すことを示した。
- 参考スコア(独自算出の注目度): 11.772116128679116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based algorithms for automated license plate recognition implicitly
assume that the training and test data are well aligned. However, this may not
be the case under extreme environmental conditions, or in forensic applications
where the system cannot be trained for a specific acquisition device.
Predictions on such out-of-distribution images have an increased chance of
failing. But this failure case is oftentimes hard to recognize for a human
operator or an automated system. Hence, in this work we propose to model the
prediction uncertainty for license plate recognition explicitly. Such an
uncertainty measure allows to detect false predictions, indicating an analyst
when not to trust the result of the automated license plate recognition. In
this paper, we compare three methods for uncertainty quantification on two
architectures. The experiments on synthetic noisy or blurred low-resolution
images show that the predictive uncertainty reliably finds wrong predictions.
We also show that a multi-task combination of classification and
super-resolution improves the recognition performance by 109\% and the
detection of wrong predictions by 29 %.
- Abstract(参考訳): 自動ライセンスプレート認識のための学習ベースのアルゴリズムは、トレーニングとテストデータが適切に一致していると暗黙的に仮定する。
しかし、極端な環境条件下、または特定の取得装置のためにシステムが訓練できない法医学的応用においては、このことは当てはまらない。
このような分布外画像の予測は失敗する可能性がある。
しかし、この障害ケースは、人間のオペレータや自動システムの認識が難しいことが多い。
そこで本研究では,ライセンスプレート認識の予測の不確かさを明示的にモデル化することを提案する。
このような不確実性測定は、自動ナンバープレート認識の結果を信頼しない場合にアナリストを示す誤った予測を検出することができる。
本稿では,2つのアーキテクチャ上での不確実性定量化を行う3つの手法を比較する。
合成ノイズやぼやけた低分解能画像の実験は、予測の不確実性が確実に間違った予測を見出すことを示した。
また,マルチタスクの分類と超解像の組み合わせにより,認識性能が109\%向上し,誤予測が29%向上することを示した。
関連論文リスト
- Uncertainties of Latent Representations in Computer Vision [2.33877878310217]
この論文は、事前訓練されたコンピュータビジョンモデルの潜在表現ベクトルにそれらを追加することで、不確実性推定を容易にアクセスできるようにする。
観測不可能な潜在表現に関するこれらの観測不可能な不確実性は、確実に正しいことを示す。
論文 参考訳(メタデータ) (2024-08-26T14:02:30Z) - Gallery-Aware Uncertainty Estimation For Open-Set Face Recognition [2.6862667248315386]
オープンセットの顔認識では、画像の分類を試みるが、それは未知の場合もある。
ここでは、確率的埋め込みの低分散は、低い誤差確率を含まない。
オープンセット認識システムにおける2つの曖昧さの源泉を認識する手法を提案する。
論文 参考訳(メタデータ) (2024-08-26T12:44:17Z) - Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - STUN: Self-Teaching Uncertainty Estimation for Place Recognition [10.553297191854837]
本稿では,その場所を同時に予測し,入力画像から予測の不確かさを推定する自己学習フレームワークSTUNを提案する。
大規模ピッツバーグ30kデータセットに対する実験結果から,STUNは認識精度と不確実性評価の品質の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-03-03T16:59:42Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - An Uncertainty Estimation Framework for Probabilistic Object Detection [5.83620245905973]
本稿では,物体検出における不確実性を推定する2つの一般的な手法を組み合わせた新しい手法を提案する。
我々のフレームワークは、予測の不確実性を近似するために、深いアンサンブルとモンテカルロのドロップアウトを利用する。
論文 参考訳(メタデータ) (2021-06-28T22:29:59Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。