論文の概要: LCReg: Long-Tailed Image Classification with Latent Categories based
Recognition
- arxiv url: http://arxiv.org/abs/2309.07186v1
- Date: Wed, 13 Sep 2023 02:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 17:30:38.835967
- Title: LCReg: Long-Tailed Image Classification with Latent Categories based
Recognition
- Title(参考訳): LCReg:潜在カテゴリに基づく認識を用いた長期画像分類
- Authors: Weide Liu, Zhonghua Wu, Yiming Wang, Henghui Ding, Fayao Liu, Jie Lin,
Guosheng Lin
- Abstract要約: 本稿では,Lar-tail Recognition(LCReg)法を提案する。
我々の仮説は、頭と尾のクラスで共有される一般的な潜伏的特徴は、特徴表現を改善するために使用できるというものである。
具体的には、頭と尾の両方で共有されるクラス非依存の潜伏特徴の集合を学習し、潜伏特徴のセマンティックデータ拡張を用いてトレーニングサンプルの多様性を暗黙的に増加させる。
- 参考スコア(独自算出の注目度): 81.5551335554507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we tackle the challenging problem of long-tailed image
recognition. Previous long-tailed recognition approaches mainly focus on data
augmentation or re-balancing strategies for the tail classes to give them more
attention during model training. However, these methods are limited by the
small number of training images for the tail classes, which results in poor
feature representations. To address this issue, we propose the Latent
Categories based long-tail Recognition (LCReg) method. Our hypothesis is that
common latent features shared by head and tail classes can be used to improve
feature representation. Specifically, we learn a set of class-agnostic latent
features shared by both head and tail classes, and then use semantic data
augmentation on the latent features to implicitly increase the diversity of the
training sample. We conduct extensive experiments on five long-tailed image
recognition datasets, and the results show that our proposed method
significantly improves the baselines.
- Abstract(参考訳): 本研究では,ロングテール画像認識の課題に挑戦する。
従来のlong-tailed recognitionアプローチは、モデルトレーニング中により注意を引かせるために、尾部クラスのデータ拡張や再バランス戦略に重点を置いている。
しかし、これらの方法はテールクラスのトレーニング画像の数によって制限され、結果として特徴表現が貧弱になる。
この問題に対処するために,Latent Categories based Long-tail Recognition (LCReg)法を提案する。
我々の仮説は、頭と尾のクラスで共有される一般的な潜伏的特徴は、特徴表現を改善するために使用できるというものである。
具体的には、頭と尾の両方で共有されるクラス非依存の潜伏特徴の集合を学習し、潜伏特徴のセマンティックデータ拡張を用いてトレーニングサンプルの多様性を暗黙的に増加させる。
5つの長尾画像認識データセットについて広範な実験を行い,提案手法がベースラインを大幅に改善することを示す。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Towards Long-Tailed Recognition for Graph Classification via
Collaborative Experts [10.99232053983369]
我々は,CoMe(Collaborative Multi-expert Learning)を用いたグラフレベル分類フレームワークを提案する。
頭と尾の授業のコントリビューションを均衡させるために,まず表現学習の観点から,バランスの取れたコントラスト学習を開発する。
マルチエキスパートフレームワークにおける協調を促進するために,複数の専門家の間でゲート融合・アンタングルド知識蒸留を実施している。
論文 参考訳(メタデータ) (2023-08-31T10:12:32Z) - Improving GANs for Long-Tailed Data through Group Spectral
Regularization [51.58250647277375]
本稿では, スペクトル爆発によるモード崩壊を防止する新しいグループスペクトル正規化器 (gSR) を提案する。
我々は,gSRが既存の拡張および正規化技術と効果的に組み合わせることで,長期化データ上での最先端の画像生成性能が向上することを発見した。
論文 参考訳(メタデータ) (2022-08-21T17:51:05Z) - Long-tailed Recognition by Learning from Latent Categories [70.6272114218549]
本稿ではLatent Categories based long-tail Recognition (LCReg)法を提案する。
具体的には、頭と尾のクラス間で共有されるクラスに依存しない潜在機能群を学習する。
次に、潜在機能に意味データ拡張を適用することで、トレーニングサンプルの多様性を暗黙的に強化する。
論文 参考訳(メタデータ) (2022-06-02T12:19:51Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。