論文の概要: Supervised Contrastive Learning on Blended Images for Long-tailed
Recognition
- arxiv url: http://arxiv.org/abs/2211.11938v1
- Date: Tue, 22 Nov 2022 01:19:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 17:54:48.041642
- Title: Supervised Contrastive Learning on Blended Images for Long-tailed
Recognition
- Title(参考訳): 長期音声認識のためのブレンド画像の教師付きコントラスト学習
- Authors: Minki Jeong, Changick Kim
- Abstract要約: 実世界のデータは長い尾の分布を持ち、クラス毎のサンプル数はトレーニングクラスで等しくありません。
本稿では,潜在特徴空間のバランスをとるために,新しい長尾認識手法を提案する。
- 参考スコア(独自算出の注目度): 32.876647081080655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data often have a long-tailed distribution, where the number of
samples per class is not equal over training classes. The imbalanced data form
a biased feature space, which deteriorates the performance of the recognition
model. In this paper, we propose a novel long-tailed recognition method to
balance the latent feature space. First, we introduce a MixUp-based data
augmentation technique to reduce the bias of the long-tailed data. Furthermore,
we propose a new supervised contrastive learning method, named Supervised
contrastive learning on Mixed Classes (SMC), for blended images. SMC creates a
set of positives based on the class labels of the original images. The
combination ratio of positives weights the positives in the training loss. SMC
with the class-mixture-based loss explores more diverse data space, enhancing
the generalization capability of the model. Extensive experiments on various
benchmarks show the effectiveness of our one-stage training method.
- Abstract(参考訳): 実世界のデータは長い尾の分布を持ち、クラス毎のサンプル数はトレーニングクラスで等しくありません。
不均衡データはバイアス付き特徴空間を形成し、認識モデルの性能を劣化させる。
本稿では,潜在特徴空間のバランスをとるために,新しい長尾認識手法を提案する。
まず,ロングテールデータのバイアスを軽減するために,ミックスアップによるデータ拡張手法を提案する。
さらに,混合画像のための教師付きコントラスト学習手法であるSupervised contrastive learning on Mixed Classes (SMC)を提案する。
SMCは、元の画像のクラスラベルに基づいて、正のセットを生成する。
正の組合せ比は、トレーニング損失の正の重み付けとなる。
クラス混合に基づく損失を伴うSMCは、より多様なデータ空間を探索し、モデルの一般化能力を高める。
各種ベンチマーク実験により,本手法の有効性が示された。
関連論文リスト
- Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Bridging the Gap: Learning Pace Synchronization for Open-World
Semi-Supervised Learning [49.07038093130949]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
モデルは、正確な監督情報によって、前者をより早く学習する。
本稿では,1) クラス分布の推定に基づく適応的マージンの損失,2) 学習ペースの同期化,2) 出力空間の同じクラスからサンプルを抽出する擬似ラベルコントラストクラスタリングについて紹介する。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Joint Debiased Representation and Image Clustering Learning with
Self-Supervision [3.1806743741013657]
我々は,新しい共同クラスタリングとコントラスト学習フレームワークを開発した。
不均衡なデータセットの下位クラスタ化を避けるために、デバイアスド・コントラストの損失に適応する。
論文 参考訳(メタデータ) (2022-09-14T21:23:41Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - DBN-Mix: Training Dual Branch Network Using Bilateral Mixup Augmentation
for Long-Tailed Visual Recognition [7.94190631530826]
累積学習を必要とせず,DBNの性能を向上させるための簡易かつ効果的な手法を開発した。
提案したDBNアーキテクチャの多数派に対する偏りを緩和するクラス条件温度スケーリングを提案する。
論文 参考訳(メタデータ) (2022-07-05T17:01:27Z) - Semantically Proportional Patchmix for Few-Shot Learning [16.24173112047382]
少ないショットラーニングは、限られたラベル付きデータでしか見えないクラスを分類することを目的としている。
近年の研究では、単純な転写学習戦略によるトレーニングモデルが、数ショットの分類において競合的な結果が得られることが示されている。
トレーニング画像間でパッチをカット・ペーストするSePPMixを提案する。
論文 参考訳(メタデータ) (2022-02-17T13:24:33Z) - Targeted Supervised Contrastive Learning for Long-Tailed Recognition [50.24044608432207]
実世界のデータは、しばしば重いクラス不均衡の長い尾の分布を示す。
教師付きコントラスト学習は性能向上に寄与するが、過去のベースラインは不均衡なデータ分布によってもたらされる不均一さに悩まされている。
我々は,超球面上の特徴分布の均一性を改善するための教師付きコントラスト学習(TSC)を提案する。
論文 参考訳(メタデータ) (2021-11-27T22:40:10Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。