論文の概要: How Re-sampling Helps for Long-Tail Learning?
- arxiv url: http://arxiv.org/abs/2310.18236v1
- Date: Fri, 27 Oct 2023 16:20:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 13:06:05.946726
- Title: How Re-sampling Helps for Long-Tail Learning?
- Title(参考訳): 再サンプリングは長期学習に役立つか?
- Authors: Jiang-Xin Shi, Tong Wei, Yuke Xiang, Yu-Feng Li
- Abstract要約: ロングテール学習は、極めて不均衡なデータセットで発生する課題のために、大きな注目を集めている。
最近の研究では、リサンプリングは現代のロングテール学習タスクにおいて無視できるパフォーマンス改善をもたらすと主張している。
そこで本稿では,末尾クラスのための多様なトレーニング画像を生成するコンテキストシフト拡張モジュールを提案する。
- 参考スコア(独自算出の注目度): 45.187004699024435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-tail learning has received significant attention in recent years due to
the challenge it poses with extremely imbalanced datasets. In these datasets,
only a few classes (known as the head classes) have an adequate number of
training samples, while the rest of the classes (known as the tail classes) are
infrequent in the training data. Re-sampling is a classical and widely used
approach for addressing class imbalance issues. Unfortunately, recent studies
claim that re-sampling brings negligible performance improvements in modern
long-tail learning tasks. This paper aims to investigate this phenomenon
systematically. Our research shows that re-sampling can considerably improve
generalization when the training images do not contain semantically irrelevant
contexts. In other scenarios, however, it can learn unexpected spurious
correlations between irrelevant contexts and target labels. We design
experiments on two homogeneous datasets, one containing irrelevant context and
the other not, to confirm our findings. To prevent the learning of spurious
correlations, we propose a new context shift augmentation module that generates
diverse training images for the tail class by maintaining a context bank
extracted from the head-class images. Experiments demonstrate that our proposed
module can boost the generalization and outperform other approaches, including
class-balanced re-sampling, decoupled classifier re-training, and data
augmentation methods. The source code is available at
https://www.lamda.nju.edu.cn/code_CSA.ashx.
- Abstract(参考訳): 近年のロングテール学習は、極めて不均衡なデータセットで発生する課題により、大きな注目を集めている。
これらのデータセットでは、少数のクラス(ヘッドクラスとして知られる)のみが十分な数のトレーニングサンプルを持ち、残りのクラス(テールクラスと呼ばれる)はトレーニングデータにはほとんどありません。
再サンプリングはクラス不均衡問題に対処するための古典的で広く使われているアプローチである。
残念なことに、最近の研究では、リサンプリングは現代のロングテール学習タスクにおいて無視できるパフォーマンス改善をもたらすと主張している。
本稿では,この現象を体系的に研究することを目的とする。
本研究は,トレーニング画像が意味的に無関係な文脈を含まない場合,再サンプリングにより一般化が著しく向上することを示す。
しかし、他のシナリオでは、無関係なコンテキストとターゲットラベルの間の予期せぬ散発的な相関を学習することができる。
我々は,無関係な文脈を含む2つの均質なデータセットについて実験を行い,その実験結果を確認した。
そこで本研究では,ヘッドクラス画像から抽出したコンテキストバンクを維持して,テールクラスの多様なトレーニング画像を生成する新しいコンテキストシフト拡張モジュールを提案する。
実験により,提案モジュールは,クラスバランスの再サンプリング,非結合型分類器再学習,データ拡張手法など,他の手法より優れていることを示す。
ソースコードはhttps://www.lamda.nju.edu.cn/code_csa.ashxで入手できる。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Adjusting Logit in Gaussian Form for Long-Tailed Visual Recognition [37.62659619941791]
特徴レベルの観点から、長い尾の視覚認識の問題について検討する。
2つの新しいロジット調整法が提案され,計算オーバーヘッドの緩やかなモデル性能が向上した。
ベンチマークデータセットを用いて行った実験は,提案手法の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-18T02:06:06Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Feature Generation for Long-tail Classification [36.186909933006675]
そこで本研究では,テールカテゴリーの分布を推定して有意義な特徴を生成する方法を示す。
また、t-SNE視覚化を用いて生成した特徴の質的分析を行い、末尾クラス分布のキャリブレーションに最も近い隣人を解析する。
論文 参考訳(メタデータ) (2021-11-10T21:34:29Z) - Breadcrumbs: Adversarial Class-Balanced Sampling for Long-tailed
Recognition [95.93760490301395]
クラスごとのサンプル数が非バランスである長尾認識の問題は、考慮されます。
これは例の繰り返しサンプリングによるものであり、特徴空間拡張によって対処できると仮定される。
トレーニング中のエポック間の機能のバックトラッキングに基づく,新たな機能拡張戦略であるemanateを提案する。
新たなサンプリング手順であるbreadcrumbは、余分な計算なしで逆のクラスバランスのサンプリングを実装するために導入された。
論文 参考訳(メタデータ) (2021-05-01T00:21:26Z) - The Devil is the Classifier: Investigating Long Tail Relation
Classification with Decoupling Analysis [36.298869931803836]
ロングテール関係分類は、ヘッドクラスがトレーニングフェーズを支配しているため、難しい問題である。
そこで本研究では,関係を自動的に集約することで,ソフトウェイトを割り当てる,注意関係ルーティング付きロバストな分類器を提案する。
論文 参考訳(メタデータ) (2020-09-15T12:47:00Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。