論文の概要: A novel three-stage training strategy for long-tailed classification
- arxiv url: http://arxiv.org/abs/2104.09830v1
- Date: Tue, 20 Apr 2021 08:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:39:04.783622
- Title: A novel three-stage training strategy for long-tailed classification
- Title(参考訳): ロングテール分類のための新しい3段階訓練戦略
- Authors: Gongzhe Li, Zhiwen Tan, Linpeng Pan
- Abstract要約: 長期分布データセットは、ディープラーニングに基づく分類モデルにとって大きな課題となる。
我々は,SAR画像データセットを長期分布で処理するための優れた3段階トレーニング戦略を確立した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The long-tailed distribution datasets poses great challenges for deep
learning based classification models on how to handle the class imbalance
problem. Existing solutions usually involve class-balacing strategies or
transfer learing from head- to tail-classes or use two-stages learning strategy
to re-train the classifier. However, the existing methods are difficult to
solve the low quality problem when images are obtained by SAR. To address this
problem, we establish a novel three-stages training strategy, which has
excellent results for processing SAR image datasets with long-tailed
distribution. Specifically, we divide training procedure into three stages. The
first stage is to use all kinds of images for rough-training, so as to get the
rough-training model with rich content. The second stage is to make the rough
model learn the feature expression by using the residual dataset with the class
0 removed. The third stage is to fine tune the model using class-balanced
datasets with all 10 classes (including the overall model fine tuning and
classifier re-optimization). Through this new training strategy, we only use
the information of SAR image dataset and the network model with very small
parameters to achieve the top 1 accuracy of 22.34 in development phase.
- Abstract(参考訳): ロングテールの分散データセットは、クラス不均衡問題の扱い方に関するディープラーニングベースの分類モデルにとって大きな課題となる。
既存のソリューションは通常、クラスバラッシング戦略や、ヘッドクラスからテールクラスへの転送リース、あるいは2段階の学習戦略を使って分類器を再訓練する。
しかし,SARにより画像が得られた場合,既存の手法では品質の低い問題を解くことは困難である。
この問題に対処するため,我々はSAR画像データセットを長期分布で処理するための優れた3段階トレーニング戦略を確立した。
具体的には,訓練手順を3段階に分けた。
最初の段階は、粗いトレーニングにあらゆる種類の画像を使用することで、リッチなコンテンツで粗いトレーニングモデルを得ることである。
第2段階は、クラス0を取り除いた残余データセットを使用して、粗いモデルに特徴式を学習させることである。
第3のステージは、クラスバランスデータセットを10クラスすべて(全体的なモデル微調整と分類器の再最適化を含む)すべてで微調整することである。
この新たなトレーニング戦略を通じて、SARイメージデータセットと非常に小さなパラメータを持つネットワークモデルの情報のみを使用して、開発フェーズにおけるトップ1の精度22.34を達成する。
関連論文リスト
- Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Two-Stage Triplet Loss Training with Curriculum Augmentation for
Audio-Visual Retrieval [3.164991885881342]
クロス検索モデルは堅牢な埋め込み空間を学習する。
この問題に対処するために,カリキュラム学習に根ざした新しいアプローチを導入する。
本稿では,モデルの学習過程をセミハードからハードトリップにガイドする2段階の学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-20T12:35:54Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - MIS-FM: 3D Medical Image Segmentation using Foundation Models Pretrained
on a Large-Scale Unannotated Dataset [14.823114726604853]
本稿では,3次元セグメンテーションモデルを事前学習するための,VF(Volume Fusion)と呼ばれる新たな自己教師型学習戦略を提案する。
VFは、手動のアノテーションなしで自己教師付きセグメンテーションタスクとして定式化される各ボクセルの融合係数を予測するようモデルを強制する。
頭部, 頸部臓器, 胸部, 腹部臓器など, 下流領域の異なる部位を対象とする実験により, 我々の事前訓練モデルがスクラッチからトレーニングに優れていたことが判明した。
論文 参考訳(メタデータ) (2023-06-29T13:22:13Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Two-Stage Fine-Tuning: A Novel Strategy for Learning Class-Imbalanced
Data [11.66734752179563]
長い尾の分散データの分類は難しい問題である。
トレーニング済みのモデルを下流タスクに転送する場合、特に微調整では、テールクラスでの学習は困難である。
本稿では,2段階のファインチューニングを提案する。まず,事前訓練されたモデルの最終層をクラスバランスの再重み付け損失で微調整し,次に標準のファインチューニングを実行する。
論文 参考訳(メタデータ) (2022-07-22T03:39:51Z) - Adaptive Fine-Grained Sketch-Based Image Retrieval [100.90633284767205]
最近のファイングレード・スケッチに基づく画像検索は、モデルから新しいカテゴリへの一般化へとシフトしている。
実世界のアプリケーションでは、トレーニングされたFG-SBIRモデルは、新しいカテゴリと異なる人間のスケッチラーの両方に適用されることが多い。
モデルに依存しないメタラーニング(MAML)に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-04T21:07:20Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。