論文の概要: Equalization Loss for Long-Tailed Object Recognition
- arxiv url: http://arxiv.org/abs/2003.05176v2
- Date: Tue, 14 Apr 2020 15:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:51:01.848155
- Title: Equalization Loss for Long-Tailed Object Recognition
- Title(参考訳): 長尾物体認識における等化損失
- Authors: Jingru Tan, Changbao Wang, Buyu Li, Quanquan Li, Wanli Ouyang,
Changqing Yin, Junjie Yan
- Abstract要約: 最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
- 参考スコア(独自算出の注目度): 109.91045951333835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object recognition techniques using convolutional neural networks (CNN) have
achieved great success. However, state-of-the-art object detection methods
still perform poorly on large vocabulary and long-tailed datasets, e.g. LVIS.
In this work, we analyze this problem from a novel perspective: each positive
sample of one category can be seen as a negative sample for other categories,
making the tail categories receive more discouraging gradients. Based on it, we
propose a simple but effective loss, named equalization loss, to tackle the
problem of long-tailed rare categories by simply ignoring those gradients for
rare categories. The equalization loss protects the learning of rare categories
from being at a disadvantage during the network parameter updating. Thus the
model is capable of learning better discriminative features for objects of rare
classes. Without any bells and whistles, our method achieves AP gains of 4.1%
and 4.8% for the rare and common categories on the challenging LVIS benchmark,
compared to the Mask R-CNN baseline. With the utilization of the effective
equalization loss, we finally won the 1st place in the LVIS Challenge 2019.
Code has been made available at: https: //github.com/tztztztztz/eql.detectron2
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)を用いた物体認識技術は大きな成功を収めた。
しかし、最先端のオブジェクト検出手法は、LVISのような大きな語彙と長い尾を持つデータセットでは依然として不十分である。
本研究は, あるカテゴリの正のサンプルを他のカテゴリの負のサンプルとみなすことができ, テールカテゴリーの勾配を抑えることができる,という新しい視点から, この問題を解析する。
そこで本論文では, 比較的単純な損失である等化損失(等化損失)を提案し, 希少なカテゴリーの勾配を無視することで, 長期的希少なカテゴリーの問題に対処する。
等化損失は、ネットワークパラメータの更新中にまれなカテゴリの学習が不利になるのを防ぐ。
したがって、このモデルは希少クラスのオブジェクトに対するより良い識別的特徴を学習することができる。
提案手法では,マスクr-cnnのベースラインと比較して,lvisベンチマークにおいて4.1%,4.8%の ap 向上を達成している。
効果的な等化損失の活用により、LVIS Challenge 2019で最終的に1位を獲得した。
https: //github.com/tztztztz/eql.detectron2
関連論文リスト
- Escaping Saddle Points for Effective Generalization on Class-Imbalanced
Data [40.64419633190104]
我々は、再重み付けとマージンに基づく手法で訓練されたニューラルネットワークの損失状況を調べることによって、クラス不均衡の学習問題を解析する。
本研究では,サドル点から逃れるために設計された最適化手法を,マイノリティクラスにおける一般化の効率化に有効に活用できることを見出した。
SAMを使用することで、最先端のベクタースケーリング損失よりもマイノリティークラスでは6.2%の精度が向上し、不均衡なデータセット全体の平均4%が増加した。
論文 参考訳(メタデータ) (2022-12-28T14:00:44Z) - The Equalization Losses: Gradient-Driven Training for Long-tailed Object
Recognition [84.51875325962061]
本稿では,長距離問題に対処するための勾配駆動型学習機構を提案する。
我々は、勾配駆動損失関数の新たなファミリー、すなわち等化損失を導入する。
我々の手法は一貫してベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-10-11T16:00:36Z) - Class-Level Logit Perturbation [0.0]
特徴摂動とラベル摂動は、様々なディープラーニングアプローチにおいて有用であることが証明されている。
シングルラベルとマルチラベルの両方の分類タスクに対して,摂動ロジットを明示的に学習するための新しい手法が提案されている。
logit上でしか摂動しないため、既存の分類アルゴリズムと融合するためのプラグインとして使用できる。
論文 参考訳(メタデータ) (2022-09-13T00:49:32Z) - Understanding Square Loss in Training Overparametrized Neural Network
Classifiers [31.319145959402462]
過度にパラメータ化されたニューラルネットワークでどのように機能するかを体系的に検討することにより、分類における二乗損失の理論的理解に寄与する。
クラスが分離可能か否かに応じて2つのケースを考慮する。一般的な非分離可能の場合、誤分類率と校正誤差の両方について、高速収束率が確立される。
結果として得られるマージンはゼロから下界であることが証明され、ロバスト性の理論的な保証を提供する。
論文 参考訳(メタデータ) (2021-12-07T12:12:30Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z) - Forest R-CNN: Large-Vocabulary Long-Tailed Object Detection and Instance
Segmentation [75.93960390191262]
我々は、オブジェクトカテゴリ間の関係に関する事前知識を利用して、きめ細かいクラスを粗い親クラスにクラスタリングする。
そこで本研究では,NMS再サンプリング法を提案する。
提案手法はフォレストR-CNNと呼ばれ,ほとんどのオブジェクト認識モデルに適用可能なプラグイン・アンド・プレイモジュールとして機能する。
論文 参考訳(メタデータ) (2020-08-13T03:52:37Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - Beyond Triplet Loss: Meta Prototypical N-tuple Loss for Person
Re-identification [118.72423376789062]
マルチクラス分類損失(N-tuple loss)を導入し、クエリごとの最適化のために複数の(N)インスタンスを共同で検討する。
マルチクラス分類を組み込んだモデルにより,ベンチマーク対象のReIDデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-08T23:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。