論文の概要: Adaptive Class Suppression Loss for Long-Tail Object Detection
- arxiv url: http://arxiv.org/abs/2104.00885v1
- Date: Fri, 2 Apr 2021 05:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:51:47.754071
- Title: Adaptive Class Suppression Loss for Long-Tail Object Detection
- Title(参考訳): 長尾物体検出のための適応クラス抑制損失
- Authors: Tong Wang, Yousong Zhu, Chaoyang Zhao, Wei Zeng, Jinqiao Wang and Ming
Tang
- Abstract要約: アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
- 参考スコア(独自算出の注目度): 49.7273558444966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the problem of long-tail distribution for the large vocabulary
object detection task, existing methods usually divide the whole categories
into several groups and treat each group with different strategies. These
methods bring the following two problems. One is the training inconsistency
between adjacent categories of similar sizes, and the other is that the learned
model is lack of discrimination for tail categories which are semantically
similar to some of the head categories. In this paper, we devise a novel
Adaptive Class Suppression Loss (ACSL) to effectively tackle the above problems
and improve the detection performance of tail categories. Specifically, we
introduce a statistic-free perspective to analyze the long-tail distribution,
breaking the limitation of manual grouping. According to this perspective, our
ACSL adjusts the suppression gradients for each sample of each class
adaptively, ensuring the training consistency and boosting the discrimination
for rare categories. Extensive experiments on long-tail datasets LVIS and Open
Images show that the our ACSL achieves 5.18% and 5.2% improvements with
ResNet50-FPN, and sets a new state of the art. Code and models are available at
https://github.com/CASIA-IVA-Lab/ACSL.
- Abstract(参考訳): 大規模語彙オブジェクト検出タスクの長期分布問題に対処するため、既存の手法は通常、カテゴリ全体を複数のグループに分割し、異なる戦略で各グループを扱います。
これらの方法は以下の2つの問題をもたらす。
1つは、類似したサイズの隣接カテゴリ間のトレーニングの不整合であり、もう1つは、学習モデルは、いくつかの見出しカテゴリと意味的に類似した尾のカテゴリに対する識別の欠如である。
本稿では,上記の問題に効果的に取り組むための適応型クラス抑圧損失(acsl)を考案し,テールカテゴリの検出性能を向上させる。
具体的には,手動グルーピングの限界を破って,ロングテール分布を分析するための統計自由視点を提案する。
この観点から,acslは各クラスの各サンプルの抑制勾配を適応的に調整し,トレーニング一貫性を確保し,稀なカテゴリの識別を促進する。
LVISとOpen Imagesのロングテールデータセットに関する大規模な実験は、我々のACSLがResNet50-FPNで5.18%と5.2%の改善を達成し、新しい最先端の技術を設定していることを示している。
コードとモデルはhttps://github.com/CASIA-IVA-Lab/ACSLで入手できる。
関連論文リスト
- Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - DiGeo: Discriminative Geometry-Aware Learning for Generalized Few-Shot
Object Detection [39.937724871284665]
汎用的な少ショットオブジェクト検出は、豊富なアノテーションと限られたトレーニングデータを持つ新しいクラスで、両方のベースクラス上で正確な検出を実現することを目的としている。
既存のアプローチは、ベースクラスのパフォーマンスを犠牲にして、数ショットの一般化を促進する。
クラス間分離とクラス内コンパクト性の幾何学的特徴を学習するための新しいトレーニングフレームワークDiGeoを提案する。
論文 参考訳(メタデータ) (2023-03-16T22:37:09Z) - PatchMix Augmentation to Identify Causal Features in Few-shot Learning [55.64873998196191]
少ないショット学習は、十分なカテゴリをラベル付けしたデータに基づいて学習した知識を、少ない既知の情報を持つ新しいカテゴリに転送することを目的としている。
我々はPatchMixと呼ばれる新しいデータ拡張戦略を提案し、この急激な依存関係を壊すことができる。
このような拡張メカニズムが,既存のメカニズムと異なり,因果的特徴を識別可能であることを示す。
論文 参考訳(メタデータ) (2022-11-29T08:41:29Z) - Semi-Supervised Semantic Segmentation via Adaptive Equalization Learning [20.66927648806676]
適応等化学習(AEL)と呼ばれる半教師付きセマンティックセグメンテーションのための新しいフレームワークを提案する。
AELは、高い評価と悪い評価を受けたカテゴリのトレーニングのバランスをとり、信頼性銀行はカテゴリワイドのパフォーマンスを追跡する。
AELは、CityscapesとPascal VOCベンチマークにおいて最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-10-11T17:59:55Z) - Exploring Classification Equilibrium in Long-Tailed Object Detection [29.069986049436157]
そこで本研究では,各カテゴリの平均分類スコアを用いて,各カテゴリの分類精度を示す。
EBL (Equilibrium Loss) と Memory-augmented Feature Smpling (MFS) 法による分類のバランスをとる。
尾クラスの検出性能を15.6 APで改善し、最新の長い尾を持つ物体検出器を1 AP以上で上回っている。
論文 参考訳(メタデータ) (2021-08-17T08:39:04Z) - Seesaw Loss for Long-Tailed Instance Segmentation [131.86306953253816]
本稿では,各カテゴリの正試料と負試料の動的再バランス勾配を求めるシーソー損失を提案する。
緩和因子は、異なるカテゴリ間の累積トレーニングインスタンスの比率に比例して、罰を尾のカテゴリに還元する。
補償係数は、末尾カテゴリーの偽陽性を避けるために、誤分類されたインスタンスのペナルティを増加させる。
論文 参考訳(メタデータ) (2020-08-23T12:44:45Z) - Overcoming Classifier Imbalance for Long-tail Object Detection with
Balanced Group Softmax [88.11979569564427]
本報告では, 長期分布前における最先端モデルの過小評価に関する最初の体系的解析を行う。
本稿では,グループワイドトレーニングを通じて検出フレームワーク内の分類器のバランスをとるための,新しいバランス付きグループソフトマックス(BAGS)モジュールを提案する。
非常に最近の長尾大語彙オブジェクト認識ベンチマークLVISの大規模な実験により,提案したBAGSは検出器の性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2020-06-18T10:24:26Z) - Equalization Loss for Long-Tailed Object Recognition [109.91045951333835]
最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
論文 参考訳(メタデータ) (2020-03-11T09:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。