論文の概要: Feature Space Augmentation for Long-Tailed Data
- arxiv url: http://arxiv.org/abs/2008.03673v1
- Date: Sun, 9 Aug 2020 06:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 04:16:16.109013
- Title: Feature Space Augmentation for Long-Tailed Data
- Title(参考訳): 長尺データのための特徴空間拡張
- Authors: Peng Chu and Xiao Bian and Shaopeng Liu and Haibin Ling
- Abstract要約: 実世界のデータは、各クラスの周波数が典型的に異なるため、長い尾の分布に従うことが多い。
データ再サンプリングと拡張に関するクラスバランス損失と高度な手法は、データの不均衡問題を解決するためのベストプラクティスのひとつです。
提案手法は,多種多様なサンプルを持つクラスから学習した特徴量を用いて,特徴空間における表現不足のクラスを増大させることによって,長鎖問題に対処する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 74.65615132238291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data often follow a long-tailed distribution as the frequency of
each class is typically different. For example, a dataset can have a large
number of under-represented classes and a few classes with more than sufficient
data. However, a model to represent the dataset is usually expected to have
reasonably homogeneous performances across classes. Introducing class-balanced
loss and advanced methods on data re-sampling and augmentation are among the
best practices to alleviate the data imbalance problem. However, the other part
of the problem about the under-represented classes will have to rely on
additional knowledge to recover the missing information.
In this work, we present a novel approach to address the long-tailed problem
by augmenting the under-represented classes in the feature space with the
features learned from the classes with ample samples. In particular, we
decompose the features of each class into a class-generic component and a
class-specific component using class activation maps. Novel samples of
under-represented classes are then generated on the fly during training stages
by fusing the class-specific features from the under-represented classes with
the class-generic features from confusing classes. Our results on different
datasets such as iNaturalist, ImageNet-LT, Places-LT and a long-tailed version
of CIFAR have shown the state of the art performances.
- Abstract(参考訳): 実世界のデータは、各クラスの頻度が通常異なるため、しばしばロングテールの分布に従う。
例えば、データセットは、多数の未表現のクラスと、十分なデータを持つ少数のクラスを持つことができる。
しかしながら、データセットを表現するモデルは通常、クラス間で合理的に均質なパフォーマンスを持つことが期待されている。
データのアンバランス問題を緩和するためのベストプラクティスとして、クラスバランス損失の導入とデータ再サンプリングと拡張に関する高度な手法がある。
しかし、未表示のクラスに関する他の問題は、欠落した情報を回復するために追加の知識に頼る必要がある。
本研究では,特徴空間における表現不足のクラスを,十分なサンプルを持つクラスから学習した特徴量で拡張することで,長鎖問題に対処する新しい手法を提案する。
特に,各クラスの特徴を,クラスアクティベーションマップを用いてクラスジェネリックコンポーネントとクラス固有のコンポーネントに分解する。
未表現のクラスの新しいサンプルは、未表現のクラスからクラス固有の特徴を、混乱したクラスからクラスジェネリックな特徴に融合させることで、トレーニング段階のフライで生成される。
iNaturalist、ImageNet-LT、Places-LT、CIFARの長期バージョンなど、さまざまなデータセットで得られた結果から、アートパフォーマンスの現状が示されている。
関連論文リスト
- Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - Instance-level Few-shot Learning with Class Hierarchy Mining [26.273796311012042]
我々は階層的な情報を利用して、新しいオブジェクトを効果的に分類するために、基本クラスの識別的および関連する特徴を活用する。
これらの特徴は、不足したデータを持つクラスを合理的に記述するために使用できる、ベースクラスの豊富なデータから抽出される。
FSISにおける階層型検出器を効果的に訓練するために,細粒度クラス間の関係をより詳細に記述するためにラベル改良を適用した。
論文 参考訳(メタデータ) (2023-04-15T02:55:08Z) - Unicom: Universal and Compact Representation Learning for Image
Retrieval [65.96296089560421]
大規模LAION400Mを,CLIPモデルにより抽出された共同テキストと視覚的特徴に基づいて,100万の擬似クラスにクラスタリングする。
このような矛盾を緩和するために、我々は、マージンベースのソフトマックス損失を構築するために、ランダムにクラス間の部分的なプロトタイプを選択する。
提案手法は,複数のベンチマークにおいて,教師なし,教師なしの画像検索手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-12T14:25:52Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - AlphaNet: Improving Long-Tail Classification By Combining Classifiers [44.5124310374697]
ロングテール学習の手法は、データ貧弱な(希少な)クラスのパフォーマンス向上に重点を置いている。
多くのエラーは、視覚的に類似した頻繁なクラスとして希少な項目の誤分類によるものである。
既存モデルに適用可能なAlphaNetを導入し,レアクラスの分類器に対するポストホック補正を行う。
論文 参考訳(メタデータ) (2020-08-17T03:31:39Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。