論文の概要: The Majority Can Help The Minority: Context-rich Minority Oversampling
for Long-tailed Classification
- arxiv url: http://arxiv.org/abs/2112.00412v2
- Date: Fri, 3 Dec 2021 08:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 12:26:39.737625
- Title: The Majority Can Help The Minority: Context-rich Minority Oversampling
for Long-tailed Classification
- Title(参考訳): マイノリティの多数派:長い尾の分類のためのコンテキストリッチなマイノリティオーバーサンプリング
- Authors: Seulki Park, Youngkyu Hong, Byeongho Heo, Sangdoo Yun and Jin Young
Choi
- Abstract要約: 多様なマイノリティーサンプルを増補する新しいマイノリティーオーバーサンプリング法を提案する。
私たちのキーとなるアイデアは、フォアグラウンドパッチをマイノリティークラスから、豊かなコンテキストを持つ多数クラスの背景イメージに貼り付けることです。
本手法は,様々な長期分類ベンチマークにおける最先端性能を実現する。
- 参考スコア(独自算出の注目度): 20.203461156516937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of class imbalanced data lies in that the generalization
performance of the classifier is deteriorated due to the lack of data of the
minority classes. In this paper, we propose a novel minority over-sampling
method to augment diversified minority samples by leveraging the rich context
of the majority classes as background images. To diversify the minority
samples, our key idea is to paste a foreground patch from a minority class to a
background image from a majority class having affluent contexts. Our method is
simple and can be easily combined with the existing long-tailed recognition
methods. We empirically prove the effectiveness of the proposed oversampling
method through extensive experiments and ablation studies. Without any
architectural changes or complex algorithms, our method achieves
state-of-the-art performance on various long-tailed classification benchmarks.
Our code will be publicly available at link.
- Abstract(参考訳): クラス不均衡データの問題は、マイノリティクラスのデータの欠如により、分類器の一般化性能が低下することにある。
本稿では,背景画像として多数クラスのリッチな文脈を活用することで,多様なマイノリティサンプルを拡大する新しいマイノリティオーバーサンプリング手法を提案する。
マイノリティのサンプルを多様化させるためには、フォアグラウンドパッチをマイノリティクラスから背景イメージに貼り付け、豊かなコンテキストを持つマジョリティクラスに貼り付けます。
提案手法は単純で,既存の長尾認識手法と簡単に組み合わせることができる。
提案手法の有効性を実験およびアブレーション実験により実証的に検証した。
アーキテクチャの変更や複雑なアルゴリズムがなければ、様々なロングテールの分類ベンチマークで最先端のパフォーマンスが得られる。
私たちのコードはリンクで公開されます。
関連論文リスト
- Confronting Discrimination in Classification: Smote Based on
Marginalized Minorities in the Kernel Space for Imbalanced Data [0.0]
決定境界とサンプル近接関係に基づく新しい分類オーバーサンプリング手法を提案する。
提案手法を古典的金融詐欺データセットで検証する。
論文 参考訳(メタデータ) (2024-02-13T04:03:09Z) - Combating Representation Learning Disparity with Geometric Harmonization [50.29859682439571]
本稿では,表現学習におけるカテゴリレベルの均一性を促進するために,新しい幾何調和法を提案する。
我々の提案はSSLの設定を変更せず、低コストで既存のメソッドに容易に統合できる。
論文 参考訳(メタデータ) (2023-10-26T17:41:11Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Don't Play Favorites: Minority Guidance for Diffusion Models [59.75996752040651]
本稿では,拡散モデルの生成過程をマイノリティ標本に集中させる新しい枠組みを提案する。
我々は、所望の確率レベルを持つ領域に向けて生成過程をガイドできるサンプリング技術であるマイノリティガイダンスを開発する。
論文 参考訳(メタデータ) (2023-01-29T03:08:47Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Counterfactual-based minority oversampling for imbalanced classification [11.140929092818235]
不均衡な分類におけるオーバーサンプリングの重要な課題は、新しい少数派標本の生成が多数派クラスの使用を無視することが多いことである。
対物理論に基づく新しいオーバーサンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-21T14:13:15Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。