論文の概要: Boosting Long-tailed Object Detection via Step-wise Learning on
Smooth-tail Data
- arxiv url: http://arxiv.org/abs/2305.12833v1
- Date: Mon, 22 May 2023 08:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:20:05.294807
- Title: Boosting Long-tailed Object Detection via Step-wise Learning on
Smooth-tail Data
- Title(参考訳): スムーステールデータを用いたステップワイズ学習によるロングテール物体検出の促進
- Authors: Na Dong and Yongqiang Zhang and Mingli Ding and Gim Hee Lee
- Abstract要約: カテゴリの長い尾の分布がスムーズに減衰し、ヘッドクラスに対するバイアスを補正するスムーズなテールデータを構築する。
我々は,ヘッドクラス支配的なリプレイデータに基づいて,事前学習したモデルのクラスに依存しないモジュールを微調整する。
我々は、すべてのカテゴリの正確な検出を保証するため、トップクラスエキスパートモデルから知識を伝達しながら、テールクラス支配的なリプレイデータ上で統一モデルを訓練する。
- 参考スコア(独自算出の注目度): 60.64535309016623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data tends to follow a long-tailed distribution, where the class
imbalance results in dominance of the head classes during training. In this
paper, we propose a frustratingly simple but effective step-wise learning
framework to gradually enhance the capability of the model in detecting all
categories of long-tailed datasets. Specifically, we build smooth-tail data
where the long-tailed distribution of categories decays smoothly to correct the
bias towards head classes. We pre-train a model on the whole long-tailed data
to preserve discriminability between all categories. We then fine-tune the
class-agnostic modules of the pre-trained model on the head class dominant
replay data to get a head class expert model with improved decision boundaries
from all categories. Finally, we train a unified model on the tail class
dominant replay data while transferring knowledge from the head class expert
model to ensure accurate detection of all categories. Extensive experiments on
long-tailed datasets LVIS v0.5 and LVIS v1.0 demonstrate the superior
performance of our method, where we can improve the AP with ResNet-50 backbone
from 27.0% to 30.3% AP, and especially for the rare categories from 15.5% to
24.9% AP. Our best model using ResNet-101 backbone can achieve 30.7% AP, which
suppresses all existing detectors using the same backbone.
- Abstract(参考訳): 実世界のデータは、クラス不均衡がトレーニング中のヘッドクラスの優位をもたらす、長い尾の分布に従う傾向にある。
本稿では,長鎖データセットのすべてのカテゴリを検出する上で,モデルの性能を徐々に向上させる,フラストレーション的にシンプルだが効果的なステップワイズ学習フレームワークを提案する。
具体的には、カテゴリの長い尾の分布が滑らかに減衰し、ヘッドクラスに対するバイアスを補正するスムーズなテールデータを構築する。
すべてのカテゴリの識別性を維持するために、ロングテールデータ全体のモデルを事前トレーニングします。
次に、事前学習したモデルのクラス非依存モジュールを、ヘッドクラス支配リプレイデータ上に微調整し、すべてのカテゴリから判断境界が改善されたヘッドクラスエキスパートモデルを得る。
最後に,主クラスエキスパートモデルから知識を伝達しながら,末尾クラス支配リプレイデータの統一モデルを訓練し,すべてのカテゴリを正確に検出する。
LVIS v0.5 と LVIS v1.0 の長い尾を持つデータセットに対する大規模な実験は、ResNet-50 のバックボーンを 27.0% から 30.3% AP に改善し、特に 15.5% から 24.9% AP の稀なカテゴリでは、我々の手法の優れた性能を示す。
ResNet-101のバックボーンを用いた最良のモデルでは、30.7%のAPが得られる。
関連論文リスト
- Learning from Limited and Imperfect Data [6.30667368422346]
我々は,現実世界に存在する限られた不完全なデータから学習できるディープニューラルネットワークの実用的なアルゴリズムを開発した。
これらの作品は4つのセグメントに分けられ、それぞれが限られたデータや不完全なデータから学ぶシナリオをカバーしている。
論文 参考訳(メタデータ) (2024-11-11T18:48:31Z) - FedLF: Adaptive Logit Adjustment and Feature Optimization in Federated Long-Tailed Learning [5.23984567704876]
フェデレーション学習は、分散機械学習におけるプライバシの保護という課題にパラダイムを提供する。
伝統的なアプローチは、グローバルな長期データにおけるクラスワイドバイアスの現象に対処できない。
新しい手法であるFedLFは、適応ロジット調整、連続クラス中心最適化、特徴デコリレーションという、局所的なトレーニングフェーズに3つの修正を導入している。
論文 参考訳(メタデータ) (2024-09-18T16:25:29Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。