論文の概要: DBN-Mix: Training Dual Branch Network Using Bilateral Mixup Augmentation
for Long-Tailed Visual Recognition
- arxiv url: http://arxiv.org/abs/2207.02173v1
- Date: Tue, 5 Jul 2022 17:01:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 13:52:57.507812
- Title: DBN-Mix: Training Dual Branch Network Using Bilateral Mixup Augmentation
for Long-Tailed Visual Recognition
- Title(参考訳): DBN-Mix:長期視覚認識のためのバイラテラル混在強化を用いた訓練用デュアルブランチネットワーク
- Authors: Jae Soon Baik, In Young Yoon, Jun Won Choi
- Abstract要約: 累積学習を必要とせず,DBNの性能を向上させるための簡易かつ効果的な手法を開発した。
提案したDBNアーキテクチャの多数派に対する偏りを緩和するクラス条件温度スケーリングを提案する。
- 参考スコア(独自算出の注目度): 7.94190631530826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing interest in the challenging visual perception task of
learning from long-tailed class distributions. The extreme class imbalance in
the training dataset biases the model to prefer to recognize majority-class
data over minority-class data. Recently, the dual branch network (DBN)
framework has been proposed, where two branch networks; the conventional branch
and the re-balancing branch were employed to improve the accuracy of
long-tailed visual recognition. The re-balancing branch uses a reverse sampler
to generate class-balanced training samples to mitigate bias due to class
imbalance. Although this strategy has been quite successful in handling bias,
using a reversed sampler for training can degrade the representation learning
performance. To alleviate this issue, the conventional method used a carefully
designed cumulative learning strategy, in which the influence of the
re-balancing branch gradually increases throughout the entire training phase.
In this study, we aim to develop a simple yet effective method to improve the
performance of DBN without cumulative learning that is difficult to optimize.
We devise a simple data augmentation method termed bilateral mixup
augmentation, which combines one sample from the uniform sampler with another
sample from the reversed sampler to produce a training sample. Furthermore, we
present class-conditional temperature scaling that mitigates bias toward the
majority class for the proposed DBN architecture. Our experiments performed on
widely used long-tailed visual recognition datasets show that bilateral mixup
augmentation is quite effective in improving the representation learning
performance of DBNs, and that the proposed method achieves state-of-the-art
performance for some categories.
- Abstract(参考訳): 長い尾のクラス分布から学習する難解な視覚的認知タスクへの関心が高まっている。
トレーニングデータセットの極端なクラス不均衡は、マイノリティクラスデータよりも多数派データを認識することを好むモデルにバイアスを与える。
近年,複分岐ネットワーク(dbn)フレームワークが提案されており,従来の分枝と再分枝の2つの分枝ネットワークを用いて,ロングテール視覚認識の精度向上が図られている。
再バランスブランチは、逆サンプリング器を使用して、クラス不均衡によるバイアスを軽減するために、クラスバランスのトレーニングサンプルを生成する。
この戦略はバイアスの処理に成功しているが、トレーニングにリバースサンプルを使用すると、表現学習性能が低下する可能性がある。
この問題を軽減するために,従来の手法では,トレーニング段階を通じて再バランスブランチの影響が徐々に増加するように,注意深く設計した累積学習戦略を用いた。
本研究では,最適化が難しい累積学習をすることなく,dbnの性能を向上させるための簡易かつ効果的な手法を開発することを目的とする。
そこで,本研究では, 両用混合増量法を考案し, 同一試料から採取したサンプルと逆試料から採取したサンプルを組み合わせ, トレーニングサンプルを作成する。
さらに,提案したDBNアーキテクチャの多数クラスに対するバイアスを緩和するクラス条件温度スケーリングを提案する。
広範に使用されるロングテールの視覚認識データセットを用いた実験により,dbnsの表現学習性能向上にバイラテラルミックスアップ拡張が有効であること,また,提案手法がいくつかのカテゴリにおいて最先端の性能を実現することを示した。
関連論文リスト
- Long-Tailed Object Detection Pre-training: Dynamic Rebalancing Contrastive Learning with Dual Reconstruction [28.359463356384463]
2DRCL(Dynamic Rebalance Contrastive Learning with Dual Reconstruction)と呼ばれる,オブジェクト検出のための新たな事前学習フレームワークを導入する。
提案手法は,グローバルな文脈意味論と詳細な局所パターンの両方を捉えることによって,事前学習とオブジェクト検出を一致させる,ホロスティック・ローカル・コントラスト学習機構に基づいている。
COCOおよびLVIS v1.0データセットの実験により,本手法の有効性,特に末尾クラスにおけるmAP/APスコアの改善が示された。
論文 参考訳(メタデータ) (2024-11-14T13:59:01Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Debiased Sample Selection for Combating Noisy Labels [24.296451733127956]
サンプル選択におけるバイアス学習のためのnoIse-Tolerant Expert Model (ITEM)を提案する。
具体的には、トレーニングバイアスを軽減するために、複数の専門家と統合した堅牢なネットワークアーキテクチャを設計します。
2つのクラス識別型ミニバッチの混合によるトレーニングにより、モデルが不均衡なトレーニングセットの効果を緩和する。
論文 参考訳(メタデータ) (2024-01-24T10:37:28Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Leveraging Angular Information Between Feature and Classifier for
Long-tailed Learning: A Prediction Reformulation Approach [90.77858044524544]
分類器の重みを再バランスすることなく、包含角度で認識確率を再構成する。
予測形式再構成の性能向上に着想を得て, この角度予測の異なる特性について検討する。
CIFAR10/100-LT と ImageNet-LT を事前学習することなく、ピアメソッド間で最高の性能を得ることができる。
論文 参考訳(メタデータ) (2022-12-03T07:52:48Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。