論文の概要: A First Look at Dataset Bias in License Plate Recognition
- arxiv url: http://arxiv.org/abs/2208.10657v1
- Date: Tue, 23 Aug 2022 00:20:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:15:21.831127
- Title: A First Look at Dataset Bias in License Plate Recognition
- Title(参考訳): ライセンスプレート認識におけるデータセットバイアスの一考察
- Authors: Rayson Laroca, Marcelo Santos, Valter Estevam, Eduardo Luz, David
Menotti
- Abstract要約: データセットバイアスは コンピュータビジョンのコミュニティで 深刻な問題と認識されています
本稿では,ライセンスプレート認識におけるデータセットバイアス問題について検討する。
- 参考スコア(独自算出の注目度): 1.8496815029347666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public datasets have played a key role in advancing the state of the art in
License Plate Recognition (LPR). Although dataset bias has been recognized as a
severe problem in the computer vision community, it has been largely overlooked
in the LPR literature. LPR models are usually trained and evaluated separately
on each dataset. In this scenario, they have often proven robust in the dataset
they were trained in but showed limited performance in unseen ones. Therefore,
this work investigates the dataset bias problem in the LPR context. We
performed experiments on eight datasets, four collected in Brazil and four in
mainland China, and observed that each dataset has a unique, identifiable
"signature" since a lightweight classification model predicts the source
dataset of a license plate (LP) image with more than 95% accuracy. In our
discussion, we draw attention to the fact that most LPR models are probably
exploiting such signatures to improve the results achieved in each dataset at
the cost of losing generalization capability. These results emphasize the
importance of evaluating LPR models in cross-dataset setups, as they provide a
better indication of generalization (hence real-world performance) than
within-dataset ones.
- Abstract(参考訳): パブリックデータセットは、ライセンスプレート認識(LPR)における技術の進歩に重要な役割を果たしている。
データセットバイアスはコンピュータビジョンのコミュニティでは深刻な問題とされているが、LPRの文献ではほとんど見落とされている。
LPRモデルは、通常、各データセットで個別にトレーニングされ、評価される。
このシナリオでは、トレーニングされたデータセットで堅牢であることがしばしば証明されるが、目に見えないデータセットでは限られたパフォーマンスを示した。
そこで本研究では,lprコンテキストにおけるデータセットバイアス問題を考察する。
軽量分類モデルは95%以上の精度でライセンスプレート(lp)画像のソースデータセットを予測するため、ブラジルで4つ、中国本土で4つのデータセットを8つのデータセットで実験し、各データセットがユニークな識別可能な「署名」を持っていることを観測した。
議論では、ほとんどのLPRモデルが、一般化能力を失うコストで、各データセットで達成された結果を改善するために、おそらくそのようなシグネチャを活用しているという事実に注目した。
これらの結果は、データセット内モデルよりも一般化(実世界のパフォーマンス)の指標として優れているため、データセット間セットアップにおけるLPRモデルの評価の重要性を強調している。
関連論文リスト
- Mapping Bias in Vision Language Models: Signposts, Pitfalls, and the Road Ahead [1.3995965887921709]
5つのモデルと6つのデータセットの人口統計バイアスを分析します。
UTKFaceやCelebAといったポートレートデータセットは、バイアス検出に最適なツールです。
より厳格な評価のために、より難しいバージョンのVisoGenderを紹介します。
論文 参考訳(メタデータ) (2024-10-17T02:03:27Z) - On the Universal Truthfulness Hyperplane Inside LLMs [27.007142483859162]
モデル内の事実的正確かつ誤った出力を区別する普遍真性超平面が存在するかどうかを考察する。
その結果,トレーニングデータセットの多様性の向上が,すべてのシナリオのパフォーマンスを著しく向上させることが示唆された。
論文 参考訳(メタデータ) (2024-07-11T15:07:26Z) - Do We Train on Test Data? The Impact of Near-Duplicates on License Plate
Recognition [4.6425780769024945]
この研究は、ライセンスプレート認識(LPR)研究で広く採用されているデータセットのトレーニングとテストセットにおいて、ほとんど重複している部分に注意を向けている。
この分野で最も人気のある2つのデータセットを用いて実験を行ったところ、6つの有名なモデルが公正な分割の下でトレーニングされ、テストされると、認識率が大幅に低下することがわかった。
これらの重複は,LPRの深層学習モデルの評価と開発に大きく偏っていることが示唆された。
論文 参考訳(メタデータ) (2023-04-10T15:24:29Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - On the Cross-dataset Generalization in License Plate Recognition [1.8514314381314887]
12のOCRモデルのクロスデータセット一般化を実証的に評価するために,従来の分割対1データセットアウトの実験的なセットアップを提案する。
その結果、ALPRコンテキストにおけるアプローチを評価するために、従来の分割プロトコルの制限に光を当てた。
論文 参考訳(メタデータ) (2022-01-02T00:56:09Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Dataset Cartography: Mapping and Diagnosing Datasets with Training
Dynamics [118.75207687144817]
我々はデータセットを特徴付け、診断するモデルベースのツールであるData Mapsを紹介した。
私たちは、トレーニング中の個々のインスタンス上でのモデルの振る舞いという、ほとんど無視された情報のソースを活用しています。
以上の結果から,データ量から品質へのフォーカスの変化は,ロバストなモデルとアウト・オブ・ディストリビューションの一般化に繋がる可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-22T20:19:41Z) - On the Composition and Limitations of Publicly Available COVID-19 X-Ray
Imaging Datasets [0.0]
データ不足、トレーニングとターゲット人口のミスマッチ、グループ不均衡、ドキュメントの欠如は、バイアスの重要な原因である。
本稿では,現在公開されている新型コロナウイルス胸部X線データセットの概要を紹介する。
論文 参考訳(メタデータ) (2020-08-26T14:16:01Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - ReClor: A Reading Comprehension Dataset Requiring Logical Reasoning [85.33459673197149]
標準化された大学院受験試験から抽出した論理的推論(ReClor)を必要とする新たな読解データセットを提案する。
本稿では、偏りのあるデータポイントを識別し、それらをEASY集合と残りをHARD集合に分離することを提案する。
実験結果によると、最先端のモデルでは、データセットに含まれるバイアスをEASYセット上で高精度にキャプチャする能力に優れていた。
しかし、彼らはランダムな推測に近い性能のHARDセットに苦慮しており、現在のモデルの論理的推論能力を本質的に向上させるためには、より多くの研究が必要であることを示している。
論文 参考訳(メタデータ) (2020-02-11T11:54:29Z) - Adversarial Filters of Dataset Biases [96.090959788952]
大規模なニューラルモデルでは、言語とビジョンベンチマークで人間レベルのパフォーマンスが実証されている。
それらの性能は、敵対的またはアウト・オブ・ディストリビューションのサンプルで著しく低下する。
このようなデータセットバイアスを逆フィルタするAFLiteを提案する。
論文 参考訳(メタデータ) (2020-02-10T21:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。