論文の概要: Resolving Class Imbalance in Object Detection with Weighted Cross
Entropy Losses
- arxiv url: http://arxiv.org/abs/2006.01413v1
- Date: Tue, 2 Jun 2020 06:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:39:10.017694
- Title: Resolving Class Imbalance in Object Detection with Weighted Cross
Entropy Losses
- Title(参考訳): 重み付きクロスエントロピー損失による物体検出におけるクラス不均衡の解消
- Authors: Trong Huy Phan, Kazuma Yamamoto
- Abstract要約: 物体検出はコンピュータビジョンにおいて重要なタスクであり、自律運転、監視、ロボット工学といった現実世界の多くのアプリケーションに役立っている。
不均一なオブジェクトクラス分布を持つ特別なデータセットに関しては、検出器のパフォーマンスにはまだ制限がある。
クロスエントロピー損失の重み付き変種を適用して,そのような問題を探索し,克服することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is an important task in computer vision which serves a lot
of real-world applications such as autonomous driving, surveillance and
robotics. Along with the rapid thrive of large-scale data, numerous
state-of-the-art generalized object detectors (e.g. Faster R-CNN, YOLO, SSD)
were developed in the past decade. Despite continual efforts in model
modification and improvement in training strategies to boost detection
accuracy, there are still limitations in performance of detectors when it comes
to specialized datasets with uneven object class distributions. This originates
from the common usage of Cross Entropy loss function for object classification
sub-task that simply ignores the frequency of appearance of object class during
training, and thus results in lower accuracies for object classes with fewer
number of samples. Class-imbalance in general machine learning has been widely
studied, however, little attention has been paid on the subject of object
detection. In this paper, we propose to explore and overcome such problem by
application of several weighted variants of Cross Entropy loss, for examples
Balanced Cross Entropy, Focal Loss and Class-Balanced Loss Based on Effective
Number of Samples to our object detector. Experiments with BDD100K (a highly
class-imbalanced driving database acquired from on-vehicle cameras capturing
mostly Car-class objects and other minority object classes such as Bus, Person
and Motor) have proven better class-wise performances of detector trained with
the afore-mentioned loss functions.
- Abstract(参考訳): オブジェクト検出はコンピュータビジョンにおいて重要なタスクであり、自動運転や監視、ロボット工学など、現実世界の多くのアプリケーションを提供する。
大規模データの急速な成長とともに、過去10年間に多くの最先端の汎用オブジェクト検出器(例えば、より高速なR-CNN、YOLO、SSD)が開発された。
検出精度を高めるためのモデル修正とトレーニング戦略の改善への継続的な取り組みにもかかわらず、不均一なオブジェクトクラス分布を持つ特別なデータセットに関しては、検出器の性能に制限がある。
これは、訓練中のオブジェクトクラスの出現頻度を単純に無視するオブジェクト分類サブタスクにおけるクロスエントロピー損失関数の一般的な使用から始まり、サンプル数が少ないオブジェクトクラスの精度が低下する。
一般機械学習におけるクラス不均衡は広く研究されているが、対象検出の課題にはほとんど注目されていない。
本稿では,対象検出器の有効サンプル数に基づくクロスエントロピー,焦点損失,クラスバランス損失など,複数の重み付け型クロスエントロピー損失を応用して,この問題を探索し,克服する。
BDD100K(車載カメラから取得した高度にクラス不均衡な運転データベース)による実験は、主にカークラスやバス、パーソナライズ、モーターなどのマイノリティなオブジェクトクラスをキャプチャし、前述した損失関数で訓練された検出器のクラスワイド性能を向上した。
関連論文リスト
- Semi-Supervised Object Detection: A Survey on Progress from CNN to Transformer [12.042768320132694]
本稿では,物体検出のための半教師付き学習における27の最先端開発について概説する。
データ拡張テクニック、擬似ラベル戦略、一貫性の正則化、敵の訓練方法などをカバーする。
我々は,既存の課題を克服し,物体検出のための半教師あり学習における新たな方向性を探るため,さらなる研究の関心を喚起することを目的としている。
論文 参考訳(メタデータ) (2024-07-11T12:58:13Z) - Efficient Meta-Learning Enabled Lightweight Multiscale Few-Shot Object Detection in Remote Sensing Images [15.12889076965307]
YOLOv7ワンステージ検出器は、新しいメタラーニングトレーニングフレームワークが組み込まれている。
この変換により、検出器はFSODのタスクに十分対応できると同時に、その固有の軽量化の利点を活かすことができる。
提案検出器の有効性を検証するため, 現状の検出器と性能比較を行った。
論文 参考訳(メタデータ) (2024-04-29T04:56:52Z) - OpenNet: Incremental Learning for Autonomous Driving Object Detection
with Balanced Loss [3.761247766448379]
提案手法は既存手法よりも優れた性能が得られる。
CODAデータセットを用いた実験結果から,提案手法は既存手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-11-25T06:02:50Z) - Improved Region Proposal Network for Enhanced Few-Shot Object Detection [23.871860648919593]
Few-shot Object Detection (FSOD) メソッドは、古典的なオブジェクト検出手法の限界に対する解決策として登場した。
FSODトレーニング段階において,未ラベルの新規物体を正のサンプルとして検出し,利用するための半教師付きアルゴリズムを開発した。
地域提案ネットワーク(RPN)の階層的サンプリング戦略の改善により,大規模オブジェクトに対するオブジェクト検出モデルの認識が向上する。
論文 参考訳(メタデータ) (2023-08-15T02:35:59Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Class-Aware Robust Adversarial Training for Object Detection [12.600009462416663]
本稿では,オブジェクト検出タスクのための新しいクラス認識ロバストな敵対的トレーニングパラダイムを提案する。
与えられた画像に対して、提案手法は、画像内のすべての生成されたオブジェクトを同時に攻撃する普遍的対向摂動を生成する。
提案手法では,全損失をクラス別損失に分解し,各クラス損失をクラス用のオブジェクト数で正規化する。
論文 参考訳(メタデータ) (2021-03-30T08:02:28Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Incremental Few-Shot Object Detection [96.02543873402813]
OpeN-ended Centre nEtは、いくつかの例でクラスオブジェクトの検出を漸進的に学習する検出器である。
ONCEはインクリメンタルな学習パラダイムを十分に尊重しており、新しいクラス登録では、数発のトレーニングサンプルを1回だけフォワードパスするだけでよい。
論文 参考訳(メタデータ) (2020-03-10T12:56:59Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。