論文の概要: Investigate the Essence of Long-Tailed Recognition from a Unified
Perspective
- arxiv url: http://arxiv.org/abs/2107.03758v1
- Date: Thu, 8 Jul 2021 11:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:34:38.215387
- Title: Investigate the Essence of Long-Tailed Recognition from a Unified
Perspective
- Title(参考訳): 統一的な視点からロングテール認識の本質を探る
- Authors: Lei Liu and Li Liu
- Abstract要約: 深層認識モデルは、カテゴリ間の重い不均衡なサンプル数のために、長い尾のデータ分布に悩まされることが多い。
本研究では,長い尾の認識が標本数とカテゴリの類似性の両方に悩まされていることを示す。
- 参考スコア(独自算出の注目度): 11.080317683184363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the data scale grows, deep recognition models often suffer from
long-tailed data distributions due to the heavy imbalanced sample number across
categories. Indeed, real-world data usually exhibit some similarity relation
among different categories (e.g., pigeons and sparrows), called category
similarity in this work. It is doubly difficult when the imbalance occurs
between such categories with similar appearances. However, existing solutions
mainly focus on the sample number to re-balance data distribution. In this
work, we systematically investigate the essence of the long-tailed problem from
a unified perspective. Specifically, we demonstrate that long-tailed
recognition suffers from both sample number and category similarity.
Intuitively, using a toy example, we first show that sample number is not the
unique influence factor for performance dropping of long-tailed recognition.
Theoretically, we demonstrate that (1) category similarity, as an inevitable
factor, would also influence the model learning under long-tailed distribution
via similar samples, (2) using more discriminative representation methods
(e.g., self-supervised learning) for similarity reduction, the classifier bias
can be further alleviated with greatly improved performance. Extensive
experiments on several long-tailed datasets verify the rationality of our
theoretical analysis, and show that based on existing state-of-the-arts
(SOTAs), the performance could be further improved by similarity reduction. Our
investigations highlight the essence behind the long-tailed problem, and claim
several feasible directions for future work.
- Abstract(参考訳): データスケールが大きくなるにつれて、深層認識モデルは、カテゴリ間の重い不均衡なサンプル数のために、長い尾のデータ分布に悩まされることが多い。
実際、現実世界のデータは通常、異なるカテゴリ(例えば、ハトとスズメ)間の類似性関係を示し、この研究ではカテゴリ類似性(英語版)と呼ばれる。
類似した外観を持つカテゴリ間で不均衡が発生すると、非常に困難である。
しかし、既存のソリューションはデータ分散を再バランスするためにサンプル数に焦点を当てている。
本研究では,長期問題の本質を統一的な観点から体系的に検討する。
具体的には,ロングテール認識は標本数とカテゴリの類似性の両方に苦しむことを示す。
Intuitively, using a toy example, we showed that sample number is not unique influence factor for performance drop of long-tailed recognition。
理論的には、(1)カテゴリー類似性は、必然的な要因として、同様のサンプルによるロングテール分布下でのモデル学習にも影響を与え、(2)より識別的表現法(例えば、自己教師付き学習)を用いて類似性低減のために、分類子バイアスは、大幅に改善された性能でさらに緩和できることを示す。
いくつかの長い尾を持つデータセットに対する大規模な実験は、我々の理論解析の合理性を検証し、既存の最先端技術(SOTA)に基づいて、類似性の低減によりさらに性能が向上することを示した。
我々の調査は、長期にわたる問題の背後にある本質を浮き彫りにし、今後の作業に向けたいくつかの実現可能な方向性を主張する。
関連論文リスト
- Pooling Image Datasets With Multiple Covariate Shift and Imbalance [22.53402104452306]
カテゴリー論の観点からこの問題がいかに単純かつ効果的な解をもたらすかを示す。
提案手法の有効性を,実データを用いた広範囲な実験により示す。
論文 参考訳(メタデータ) (2024-03-05T02:20:33Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Supervised Contrastive Learning with Heterogeneous Similarity for
Distribution Shifts [3.7819322027528113]
本稿では,教師付きコントラスト学習を用いた新たな正規化手法を提案する。
サブポピュレーションシフトや領域一般化などの分布シフトをエミュレートするベンチマークデータセットの実験は,提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-04-07T01:45:09Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - An Empirical Study on the Joint Impact of Feature Selection and Data
Resampling on Imbalance Classification [4.506770920842088]
本研究では,不均衡分類のための特徴選択とデータ再サンプリングの相乗性に着目した。
9つの特徴選択手法、クラス不均衡学習のための6つの再サンプリング手法、および3つのよく知られた分類アルゴリズムを用いて、52の公開データセットに対して多数の実験を行った。
論文 参考訳(メタデータ) (2021-09-01T06:01:51Z) - The Pitfalls of Sample Selection: A Case Study on Lung Nodule
Classification [13.376247652484274]
肺結節分類では, LIDCデータセットについて多くの研究結果が報告されており, 理論的には, 提案手法の性能を直接比較し, 個人の貢献が与える影響を評価することが期待できる。
それぞれが異なるデータ選択プロセスを採用しており,良性と悪性の症例の総数と比率が大きく異なることが判明した。
特定の選択がデータ分布に深刻な影響を与える可能性があることを示し、あるサンプル分布において優れた性能を達成できるが、別のサンプル分布では達成できない可能性があることを示す。
論文 参考訳(メタデータ) (2021-08-11T18:07:07Z) - DropLoss for Long-Tail Instance Segmentation [56.162929199998075]
珍しいカテゴリーと頻繁なカテゴリーのアンバランスを補う新しい適応損失であるDropLossを開発しています。
LVISデータセットでは,レア,一般的,頻繁なカテゴリにまたがる最先端のmAPを示す。
論文 参考訳(メタデータ) (2021-04-13T17:59:22Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。