論文の概要: Breadcrumbs: Adversarial Class-Balanced Sampling for Long-tailed
Recognition
- arxiv url: http://arxiv.org/abs/2105.00127v1
- Date: Sat, 1 May 2021 00:21:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 05:04:59.469913
- Title: Breadcrumbs: Adversarial Class-Balanced Sampling for Long-tailed
Recognition
- Title(参考訳): breadcrumbs:ロングテール認識のための逆クラスバランスサンプリング
- Authors: Bo Liu, Haoxiang Li, Hao Kang, Gang Hua, Nuno Vasconcelos
- Abstract要約: クラスごとのサンプル数が非バランスである長尾認識の問題は、考慮されます。
これは例の繰り返しサンプリングによるものであり、特徴空間拡張によって対処できると仮定される。
トレーニング中のエポック間の機能のバックトラッキングに基づく,新たな機能拡張戦略であるemanateを提案する。
新たなサンプリング手順であるbreadcrumbは、余分な計算なしで逆のクラスバランスのサンプリングを実装するために導入された。
- 参考スコア(独自算出の注目度): 95.93760490301395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of long-tailed recognition, where the number of examples per
class is highly unbalanced, is considered. While training with class-balanced
sampling has been shown effective for this problem, it is known to over-fit to
few-shot classes. It is hypothesized that this is due to the repeated sampling
of examples and can be addressed by feature space augmentation. A new feature
augmentation strategy, EMANATE, based on back-tracking of features across
epochs during training, is proposed. It is shown that, unlike class-balanced
sampling, this is an adversarial augmentation strategy. A new sampling
procedure, Breadcrumb, is then introduced to implement adversarial
class-balanced sampling without extra computation. Experiments on three popular
long-tailed recognition datasets show that Breadcrumb training produces
classifiers that outperform existing solutions to the problem.
- Abstract(参考訳): クラスごとの例数が非常に不均衡なロングテール認識の問題点を考察する。
クラスバランスサンプリングによるトレーニングは,この問題に対して有効であることが示されているが,数発のクラスに過度に適合することが知られている。
これは例の繰り返しサンプリングによるものであり、特徴空間の増大によって対処できると仮定されている。
トレーニング中のエポック間の機能のバックトラッキングに基づく,新たな機能拡張戦略であるemanateを提案する。
クラスバランスサンプリングと異なり,これは相反する拡張戦略であることが示された。
新たなサンプリング手順であるbreadcrumbは、余分な計算なしで逆のクラスバランスのサンプリングを実装するために導入された。
一般的な3つの長い尾の認識データセットの実験は、Breadcrumbトレーニングが既存のソリューションよりも優れた分類器を生成することを示している。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - How Re-sampling Helps for Long-Tail Learning? [45.187004699024435]
ロングテール学習は、極めて不均衡なデータセットで発生する課題のために、大きな注目を集めている。
最近の研究では、リサンプリングは現代のロングテール学習タスクにおいて無視できるパフォーマンス改善をもたらすと主張している。
そこで本稿では,末尾クラスのための多様なトレーニング画像を生成するコンテキストシフト拡張モジュールを提案する。
論文 参考訳(メタデータ) (2023-10-27T16:20:34Z) - ProBoost: a Boosting Method for Probabilistic Classifiers [55.970609838687864]
ProBoostは確率的分類器のための新しいブースティングアルゴリズムである。
各トレーニングサンプルの不確実性を使用して、最も困難で不確実なものを決定する。
これは、最も不確実性が高いと判明したサンプルに徐々に焦点をあてる配列を生成する。
論文 参考訳(メタデータ) (2022-09-04T12:49:20Z) - Combating Noisy Labels in Long-Tailed Image Classification [33.40963778043824]
本稿では,長期分布とラベルノイズの両方を用いて,画像分類課題に早期に取り組む。
既存のノイズキャンバス学習手法では, ノイズの多いサンプルをテールクラスのクリーンなサンプルと区別することが難しいため, このシナリオでは機能しない。
本稿では,弱いデータと強いデータに対する推測の一致に基づく新しい学習パラダイムを提案し,ノイズのあるサンプルをスクリーニングする。
論文 参考訳(メタデータ) (2022-09-01T07:31:03Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - The Devil is the Classifier: Investigating Long Tail Relation
Classification with Decoupling Analysis [36.298869931803836]
ロングテール関係分類は、ヘッドクラスがトレーニングフェーズを支配しているため、難しい問題である。
そこで本研究では,関係を自動的に集約することで,ソフトウェイトを割り当てる,注意関係ルーティング付きロバストな分類器を提案する。
論文 参考訳(メタデータ) (2020-09-15T12:47:00Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。