論文の概要: Equalization Loss v2: A New Gradient Balance Approach for Long-tailed
Object Detection
- arxiv url: http://arxiv.org/abs/2012.08548v2
- Date: Thu, 1 Apr 2021 02:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 09:09:38.809823
- Title: Equalization Loss v2: A New Gradient Balance Approach for Long-tailed
Object Detection
- Title(参考訳): 等化損失v2:ロングテール物体検出のための新しい勾配バランスアプローチ
- Authors: Jingru Tan, Xin Lu, Gang Zhang, Changqing Yin, Quanquan Li
- Abstract要約: 近年,長距離物体検出の主流パラダイムとして,分離学習法が提案されている。
等化損失(EQL)のようなエンドツーエンドのトレーニングメソッドは、分離されたトレーニングメソッドよりもパフォーマンスが悪い。
EQL v2は、各カテゴリのトレーニングプロセスを独立かつ均等に再バランスさせる新しいグラデーションガイドリウェイトメカニズムです。
- 参考スコア(独自算出の注目度): 12.408265499394089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently proposed decoupled training methods emerge as a dominant paradigm
for long-tailed object detection. But they require an extra fine-tuning stage,
and the disjointed optimization of representation and classifier might lead to
suboptimal results. However, end-to-end training methods, like equalization
loss (EQL), still perform worse than decoupled training methods. In this paper,
we reveal the main issue in long-tailed object detection is the imbalanced
gradients between positives and negatives, and find that EQL does not solve it
well. To address the problem of imbalanced gradients, we introduce a new
version of equalization loss, called equalization loss v2 (EQL v2), a novel
gradient guided reweighing mechanism that re-balances the training process for
each category independently and equally. Extensive experiments are performed on
the challenging LVIS benchmark. EQL v2 outperforms origin EQL by about 4 points
overall AP with 14-18 points improvements on the rare categories. More
importantly, it also surpasses decoupled training methods. Without further
tuning for the Open Images dataset, EQL v2 improves EQL by 7.3 points AP,
showing strong generalization ability. Codes have been released at
https://github.com/tztztztztz/eqlv2
- Abstract(参考訳): 近年,長距離物体検出の主流パラダイムとして,分離学習法が提案されている。
しかし、それらは追加の微調整段階を必要とし、表現と分類器の解離した最適化は、最適でない結果をもたらすかもしれない。
しかしながら、EQL(Equalization Los)のようなエンドツーエンドのトレーニングメソッドは、分離されたトレーニングメソッドよりもパフォーマンスが悪い。
本稿では,長尾物体検出における主な問題は,正と負の勾配の不均衡であり,eqlがうまく解決できないことを明らかにする。
不均衡勾配問題に対処するため,我々は,等化損失v2(eql v2)と呼ばれる,各カテゴリのトレーニングプロセスを独立かつ均等に再バランスさせる新しい勾配誘導緩和機構を新たに導入する。
挑戦的なLVISベンチマークで大規模な実験を行う。
EQL v2は、AP全体で約4ポイント、まれなカテゴリで14-18ポイント改善されている。
さらに重要なのは、非結合のトレーニング方法を上回ることだ。
Open Imagesデータセットのさらなるチューニングなしで、EQL v2はEQLを7.3ポイントAP改善し、強力な一般化能力を示している。
コードはhttps://github.com/tztztztz/eqlv2でリリースされた。
関連論文リスト
- AlignIQL: Policy Alignment in Implicit Q-Learning through Constrained Optimization [9.050431569438636]
暗黙のQ-ラーニングはオフラインRLの強力なベースラインとして機能する。
我々は,この問題を最適化問題として定式化することで,暗黙的な政策決定問題(IPF)を解決する方法を紹介した。
IQLやIDQLと比較して、当社のメソッドはIQLの単純さを維持し、暗黙のポリシー決定問題を解決する。
論文 参考訳(メタデータ) (2024-05-28T14:01:03Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - The Equalization Losses: Gradient-Driven Training for Long-tailed Object
Recognition [84.51875325962061]
本稿では,長距離問題に対処するための勾配駆動型学習機構を提案する。
我々は、勾配駆動損失関数の新たなファミリー、すなわち等化損失を導入する。
我々の手法は一貫してベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-10-11T16:00:36Z) - Equalized Focal Loss for Dense Long-Tailed Object Detection [17.89136305755172]
ワンステージ検出器は、簡単にデプロイできるシンプルで高速なパイプラインを持っているため、業界で広く普及している。
本稿では,一段検知器が長期のシナリオで良好に機能するかどうかを考察する。
正および負のサンプルの損失寄与を再均衡させる等化焦点損失(EFL)を提案する。
論文 参考訳(メタデータ) (2022-01-07T18:35:58Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Contrast and Classify: Training Robust VQA Models [60.80627814762071]
本稿では,クロスエントロピーとコントラスト損失の両方を最適化する新しいトレーニングパラダイム(ConClaT)を提案する。
双方の損失を -- 交互に,あるいは共同で -- 最適化することが,効果的なトレーニングの鍵であることに気付きました。
論文 参考訳(メタデータ) (2020-10-13T00:23:59Z) - Single-partition adaptive Q-learning [0.0]
SPAQL(Single-Partition Adaptive Q-learning)は、モデルなしのエピソード強化学習のためのアルゴリズムである。
多数のタイムステップを持つエピソードのテストでは、適応型Qラーニング(AQL)とは異なり、SPAQLにはスケーリングに問題はないことが示されている。
SPAQLはAQLよりも高いサンプリング効率を持つため、効率的なモデルフリーなRLメソッドの分野に関連性がある、と我々は主張する。
論文 参考訳(メタデータ) (2020-07-14T00:03:25Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z) - Equalization Loss for Long-Tailed Object Recognition [109.91045951333835]
最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
論文 参考訳(メタデータ) (2020-03-11T09:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。