論文の概要: Long-tailed Recognition by Learning from Latent Categories
- arxiv url: http://arxiv.org/abs/2206.01010v1
- Date: Thu, 2 Jun 2022 12:19:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:35:04.764725
- Title: Long-tailed Recognition by Learning from Latent Categories
- Title(参考訳): 潜在カテゴリからの学習によるロングテール認識
- Authors: Weide Liu, Zhonghua Wu, Yiming Wang, Henghui Ding, Fayao Liu, Jie Lin
and Guosheng Lin
- Abstract要約: 本稿ではLatent Categories based long-tail Recognition (LCReg)法を提案する。
具体的には、頭と尾のクラス間で共有されるクラスに依存しない潜在機能群を学習する。
次に、潜在機能に意味データ拡張を適用することで、トレーニングサンプルの多様性を暗黙的に強化する。
- 参考スコア(独自算出の注目度): 70.6272114218549
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we address the challenging task of long-tailed image
recognition. Previous long-tailed recognition methods commonly focus on the
data augmentation or re-balancing strategy of the tail classes to give more
attention to tail classes during the model training. However, due to the
limited training images for tail classes, the diversity of tail class images is
still restricted, which results in poor feature representations. In this work,
we hypothesize that common latent features among the head and tail classes can
be used to give better feature representation. Motivated by this, we introduce
a Latent Categories based long-tail Recognition (LCReg) method. Specifically,
we propose to learn a set of class-agnostic latent features shared among the
head and tail classes. Then, we implicitly enrich the training sample diversity
via applying semantic data augmentation to the latent features. Extensive
experiments on five long-tailed image recognition datasets demonstrate that our
proposed LCReg is able to significantly outperform previous methods and achieve
state-of-the-art results.
- Abstract(参考訳): 本研究では,長い尾を持つ画像認識の課題に対処する。
従来のロングテール認識手法は、モデルトレーニング中にテールクラスに注意を向けるために、テールクラスのデータ拡張や再バランス戦略に重点を置いていた。
しかし、テールクラスのトレーニング画像が限られているため、テールクラスの画像の多様性は依然として制限されており、特徴表現が不十分である。
本研究は,頭部と尾部の共通潜時特徴が,より優れた特徴表現を与えるために利用できることを仮定する。
そこで我々はLCReg法(Latent Categories based long-tail Recognition)を提案する。
具体的には、頭と尾のクラス間で共有されるクラスに依存しない潜伏特徴のセットを学ぶことを提案する。
次に,潜在機能に意味的データ拡張を適用することにより,暗黙的にトレーニングサンプルの多様性を高める。
5つのロングテール画像認識データセットに関する広範囲な実験により,提案手法が従来の手法を大幅に上回ることができ,最新の結果が得られることを示した。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - LCReg: Long-Tailed Image Classification with Latent Categories based
Recognition [81.5551335554507]
本稿では,Lar-tail Recognition(LCReg)法を提案する。
我々の仮説は、頭と尾のクラスで共有される一般的な潜伏的特徴は、特徴表現を改善するために使用できるというものである。
具体的には、頭と尾の両方で共有されるクラス非依存の潜伏特徴の集合を学習し、潜伏特徴のセマンティックデータ拡張を用いてトレーニングサンプルの多様性を暗黙的に増加させる。
論文 参考訳(メタデータ) (2023-09-13T02:03:17Z) - Towards Long-Tailed Recognition for Graph Classification via
Collaborative Experts [10.99232053983369]
我々は,CoMe(Collaborative Multi-expert Learning)を用いたグラフレベル分類フレームワークを提案する。
頭と尾の授業のコントリビューションを均衡させるために,まず表現学習の観点から,バランスの取れたコントラスト学習を開発する。
マルチエキスパートフレームワークにおける協調を促進するために,複数の専門家の間でゲート融合・アンタングルド知識蒸留を実施している。
論文 参考訳(メタデータ) (2023-08-31T10:12:32Z) - SuperDisco: Super-Class Discovery Improves Visual Recognition for the
Long-Tail [69.50380510879697]
我々は,長い尾の認識のための超クラス表現を発見するアルゴリズムであるSuperDiscoを提案する。
我々は,長期分布を扱うための表現学習を指導するために,超クラスグラフを構築することを学ぶ。
論文 参考訳(メタデータ) (2023-03-31T19:51:12Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。