論文の概要: Long-Tailed Recognition Using Class-Balanced Experts
- arxiv url: http://arxiv.org/abs/2004.03706v2
- Date: Mon, 19 Oct 2020 11:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 23:11:34.155549
- Title: Long-Tailed Recognition Using Class-Balanced Experts
- Title(参考訳): クラスバランスエキスパートによるロングテール認識
- Authors: Saurabh Sharma, Ning Yu, Mario Fritz, Bernt Schiele
- Abstract要約: 本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
- 参考スコア(独自算出の注目度): 128.73438243408393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning enables impressive performance in image recognition using
large-scale artificially-balanced datasets. However, real-world datasets
exhibit highly class-imbalanced distributions, yielding two main challenges:
relative imbalance amongst the classes and data scarcity for mediumshot or
fewshot classes. In this work, we address the problem of long-tailed
recognition wherein the training set is highly imbalanced and the test set is
kept balanced. Differently from existing paradigms relying on data-resampling,
cost-sensitive learning, online hard example mining, loss objective reshaping,
and/or memory-based modeling, we propose an ensemble of class-balanced experts
that combines the strength of diverse classifiers. Our ensemble of
class-balanced experts reaches results close to state-of-the-art and an
extended ensemble establishes a new state-of-the-art on two benchmarks for
long-tailed recognition. We conduct extensive experiments to analyse the
performance of the ensembles, and discover that in modern large-scale datasets,
relative imbalance is a harder problem than data scarcity. The training and
evaluation code is available at
https://github.com/ssfootball04/class-balanced-experts.
- Abstract(参考訳): ディープラーニングは、大規模な人工バランスデータセットを使用して、画像認識における印象的なパフォーマンスを実現する。
しかし、実世界のデータセットは高度にクラス不均衡な分布を示しており、クラス間の相対的不均衡と中級クラスや少級クラスのデータの不足という2つの大きな課題を生み出している。
本研究では,トレーニングセットが高度に不均衡であり,テストセットがバランスを保っているという,長い尾認識の問題に対処する。
データサンプル、コストセンシティブな学習、オンラインのハードサンプルマイニング、損失目標の再構成、メモリベースのモデリングといった既存のパラダイムとは異なり、多様な分類器の強みを組み合わせたクラスバランスの専門家のアンサンブルを提案する。
クラスバランスの専門家のアンサンブルは最先端に近い結果に到達し、拡張アンサンブルはロングテール認識のための2つのベンチマークで新しい最先端技術を確立します。
我々はアンサンブルの性能を分析するために広範な実験を行い、現代の大規模データセットでは、相対的不均衡はデータ不足よりも難しい問題であることを明らかにした。
トレーニングと評価コードはhttps://github.com/ssfootball04/class-balanced-expertsで入手できる。
関連論文リスト
- Gradient Reweighting: Towards Imbalanced Class-Incremental Learning [8.438092346233054]
CIL(Class-Incremental Learning)は、非定常データから新しいクラスを継続的に認識するためにモデルを訓練する。
CILの大きな課題は、非一様分布を特徴とする実世界のデータに適用する場合である。
この二重不均衡問題により、FC層に偏りのある勾配更新が生じ、CILの過度/過度な適合と破滅的な忘れが引き起こされる。
論文 参考訳(メタデータ) (2024-02-28T18:08:03Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - A Survey on Class Imbalance in Federated Learning [6.632451878730774]
フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
論文 参考訳(メタデータ) (2023-03-21T08:34:23Z) - Revisiting Long-tailed Image Classification: Survey and Benchmarks with
New Evaluation Metrics [88.39382177059747]
メトリクスのコーパスは、長い尾の分布で学習するアルゴリズムの正確性、堅牢性、およびバウンダリを測定するために設計されている。
ベンチマークに基づいて,CIFAR10およびCIFAR100データセット上での既存手法の性能を再評価する。
論文 参考訳(メタデータ) (2023-02-03T02:40:54Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Deep Reinforcement Learning for Multi-class Imbalanced Training [64.9100301614621]
我々は、極めて不均衡なデータセットをトレーニングするために、強化学習に基づく不均衡な分類フレームワークを導入する。
特注報酬関数とエピソード学習手順を定式化し、特にマルチクラス不均衡トレーニングを扱えるようにした。
実世界の臨床ケーススタディを用いて,提案手法が現状の非バランス学習法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T13:39:59Z) - ASE: Anomaly Scoring Based Ensemble Learning for Imbalanced Datasets [3.214208422566496]
そこで我々は,異常検出スコアリングシステムに基づくバギングアンサンブル学習フレームワークを考案した。
我々のアンサンブル学習モデルは,ベース推定器の性能を劇的に向上させることができる。
論文 参考訳(メタデータ) (2022-03-21T07:20:41Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - The Devil is the Classifier: Investigating Long Tail Relation
Classification with Decoupling Analysis [36.298869931803836]
ロングテール関係分類は、ヘッドクラスがトレーニングフェーズを支配しているため、難しい問題である。
そこで本研究では,関係を自動的に集約することで,ソフトウェイトを割り当てる,注意関係ルーティング付きロバストな分類器を提案する。
論文 参考訳(メタデータ) (2020-09-15T12:47:00Z) - Mitigating Dataset Imbalance via Joint Generation and Classification [17.57577266707809]
教師付きディープラーニング手法は、コンピュータビジョンの多くの実践的応用において大きな成功を収めている。
バイアスや不均衡データに対する顕著な性能劣化は、これらの手法の信頼性に疑問を投げかける。
ニューラルネットワーク分類器とGAN(Generative Adversarial Networks)を組み合わせた共同データセット修復戦略を提案する。
重度のクラス不均衡に対する分類器とGANの堅牢性向上に寄与することを示す。
論文 参考訳(メタデータ) (2020-08-12T18:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。