論文の概要: A dual-branch model with inter- and intra-branch contrastive loss for
long-tailed recognition
- arxiv url: http://arxiv.org/abs/2309.16135v1
- Date: Thu, 28 Sep 2023 03:31:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 18:06:31.590948
- Title: A dual-branch model with inter- and intra-branch contrastive loss for
long-tailed recognition
- Title(参考訳): ロングテール認識のための脳間および脳内コントラスト損失を考慮したデュアルブランチモデル
- Authors: Qiong Chen, Tianlin Huang, Geren Zhu, Enlu Lin
- Abstract要約: 長い尾のデータセットで訓練されたモデルは、テールクラスへの適応性が低く、決定境界は曖昧である。
我々は,不均衡学習枝と対照学習枝(CoLB)を含む,単純で効果的なDual-Branch Long-Tailed Recognition (DB-LTR)を提案する。
CoLBは、テールクラスに適応する際のモデルの能力を改善し、不均衡な学習ブランチを支援して、よく表現された特徴空間と識別的決定境界を学習する。
- 参考スコア(独自算出の注目度): 7.225494453600985
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Real-world data often exhibits a long-tailed distribution, in which head
classes occupy most of the data, while tail classes only have very few samples.
Models trained on long-tailed datasets have poor adaptability to tail classes
and the decision boundaries are ambiguous. Therefore, in this paper, we propose
a simple yet effective model, named Dual-Branch Long-Tailed Recognition
(DB-LTR), which includes an imbalanced learning branch and a Contrastive
Learning Branch (CoLB). The imbalanced learning branch, which consists of a
shared backbone and a linear classifier, leverages common imbalanced learning
approaches to tackle the data imbalance issue. In CoLB, we learn a prototype
for each tail class, and calculate an inter-branch contrastive loss, an
intra-branch contrastive loss and a metric loss. CoLB can improve the
capability of the model in adapting to tail classes and assist the imbalanced
learning branch to learn a well-represented feature space and discriminative
decision boundary. Extensive experiments on three long-tailed benchmark
datasets, i.e., CIFAR100-LT, ImageNet-LT and Places-LT, show that our DB-LTR is
competitive and superior to the comparative methods.
- Abstract(参考訳): 現実世界のデータはしばしば長い尾の分布を示し、ヘッドクラスはデータの大半を占め、テールクラスはごくわずかなサンプルしか持たない。
長い尾のデータセットで訓練されたモデルはテールクラスへの適応性が低く、決定境界は曖昧である。
そこで本稿では,不均衡学習ブランチとコントラシブ学習ブランチ(CoLB)を含む,単純で効果的なDual-Branch Long-Tailed Recognition(DB-LTR)を提案する。
共有バックボーンと線形分類器で構成される不均衡学習部は、データ不均衡問題に対処するために共通の不均衡学習アプローチを利用する。
CoLBでは,各テールクラスのプロトタイプを学習し,ブランチ間コントラスト損失,ブランチ内コントラスト損失,メトリック損失を算出する。
CoLBは、テールクラスに適応するモデルの能力を改善し、不均衡な学習ブランチを支援し、よく表現された特徴空間と識別的な決定境界を学ぶ。
CIFAR100-LT、ImageNet-LT、Places-LTの3つの長期ベンチマークデータセットに対する大規模な実験により、我々のDB-LTRは比較手法よりも競争力があり優れていることが示された。
関連論文リスト
- Long-Tail Learning with Rebalanced Contrastive Loss [1.4443576276330394]
本稿では、長い尾の分類精度を高めるための効率的な方法であるRe Balanced Contrastive Learning(RCL)を提案する。
RCLは、特徴空間のバランス性、クラス内コンパクト性、正規化の3つの主な側面に対処する。
3つのベンチマークデータセットに対する実験では、学習した埋め込みの豊かさと、BCLフレームワークに提供されるトップ1バランスの精度の向上が示されている。
論文 参考訳(メタデータ) (2023-12-04T09:27:03Z) - Orthogonal Uncertainty Representation of Data Manifold for Robust
Long-Tailed Learning [52.021899899683675]
長い尾の分布を持つシナリオでは、尾のサンプルが不足しているため、モデルが尾のクラスを識別する能力は制限される。
モデルロバストネスの長期的現象を改善するために,特徴埋め込みの直交不確実性表現(OUR)とエンドツーエンドのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-10-16T05:50:34Z) - Dual Compensation Residual Networks for Class Imbalanced Learning [98.35401757647749]
そこで本研究では,尾と頭の両方に適合する2次元補償残差ネットワークを提案する。
オーバーフィッティングを引き起こす重要な要因は、トレーニングとテールクラスのテストデータの間に深刻な特徴ドリフトがあることである。
また,不適合問題を軽減するためにResidual Balanced Multi-Proxies分類器を提案する。
論文 参考訳(メタデータ) (2023-08-25T04:06:30Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Balanced Contrastive Learning for Long-Tailed Visual Recognition [32.789465918318925]
現実のデータは典型的には長い尾の分布を辿り、いくつかの大半がデータの大半を占める。
本稿では,不均衡なデータに対する表現学習に着目した。
バランス付きコントラスト学習(BCL)における新たな損失を提案する。
論文 参考訳(メタデータ) (2022-07-19T03:48:59Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Balanced Knowledge Distillation for Long-tailed Learning [9.732397447057318]
長尾データセットで訓練されたディープモデルは、テールクラスで不十分なパフォーマンスを示す。
既存の手法は通常、テールクラスへの学習焦点を増やすために分類損失を変更する。
両目標間の矛盾を解消し,両目標を同時に達成するためにバランスド知識蒸留を提案する。
論文 参考訳(メタデータ) (2021-04-21T13:07:35Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。