論文の概要: Long-Tailed Recognition via Information-Preservable Two-Stage Learning
- arxiv url: http://arxiv.org/abs/2510.08836v1
- Date: Thu, 09 Oct 2025 21:49:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.805658
- Title: Long-Tailed Recognition via Information-Preservable Two-Stage Learning
- Title(参考訳): 情報保存型2段階学習による長期音声認識
- Authors: Fudong Lin, Xu Yuan,
- Abstract要約: 不均衡(または長い尾)は多くの実世界のデータ分布の性質である。
本稿では,この傾向を緩和する新たな2段階学習手法を提案する。
提案手法は,様々なロングテールベンチマークデータセットにまたがる最先端性能を実現する。
- 参考スコア(独自算出の注目度): 6.2471093754692815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The imbalance (or long-tail) is the nature of many real-world data distributions, which often induces the undesirable bias of deep classification models toward frequent classes, resulting in poor performance for tail classes. In this paper, we propose a novel two-stage learning approach to mitigate such a majority-biased tendency while preserving valuable information within datasets. Specifically, the first stage proposes a new representation learning technique from the information theory perspective. This approach is theoretically equivalent to minimizing intra-class distance, yielding an effective and well-separated feature space. The second stage develops a novel sampling strategy that selects mathematically informative instances, able to rectify majority-biased decision boundaries without compromising a model's overall performance. As a result, our approach achieves the state-of-the-art performance across various long-tailed benchmark datasets, validated via extensive experiments. Our code is available at https://github.com/fudong03/BNS_IPDPP.
- Abstract(参考訳): 不均衡(あるいは長い尾)は、多くの実世界のデータ分布の性質であり、しばしば深い分類モデルの頻繁なクラスに対する望ましくない偏見を誘発し、尾クラスの性能が低下する。
本稿では,この傾向を緩和する2段階学習手法を提案する。
具体的には,情報理論の観点から新しい表現学習手法を提案する。
このアプローチは理論上はクラス内距離の最小化と等価であり、有効かつよく分離された特徴空間をもたらす。
第2段階では, モデル全体の性能を損なうことなく, 多数偏差決定境界の修正が可能な, 数学的に有意な事例を選択する, 新たなサンプリング戦略が開発されている。
その結果,提案手法は,広範囲な実験によって検証された,様々な長尾ベンチマークデータセットの最先端性能を実現することができる。
私たちのコードはhttps://github.com/fudong03/BNS_IPDPPで利用可能です。
関連論文リスト
- Learning from Limited and Imperfect Data [6.30667368422346]
我々は,現実世界に存在する限られたデータや不完全なデータから学習できるディープニューラルネットワークのアルゴリズムを開発した。
この論文は4つのセグメントに分けられ、それぞれが限られたデータや不完全なデータから学ぶシナリオをカバーしている。
論文 参考訳(メタデータ) (2025-07-28T17:54:15Z) - Progressively Exploring and Exploiting Cost-Free Data to Break Fine-Grained Classification Barriers [13.805180905579832]
本稿では,細粒度分類における障壁を突破する新しい学習パラダイムを提案する。
このパラダイムにより、モデルは推論中に徐々に学習し、それによってコストフリーなデータを活用することができる。
実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-29T07:11:44Z) - Learning from Limited and Imperfect Data [6.30667368422346]
我々は,現実世界に存在する限られた不完全なデータから学習できるディープニューラルネットワークの実用的なアルゴリズムを開発した。
これらの作品は4つのセグメントに分けられ、それぞれが限られたデータや不完全なデータから学ぶシナリオをカバーしている。
論文 参考訳(メタデータ) (2024-11-11T18:48:31Z) - Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Overcoming Overconfidence for Active Learning [1.2776312584227847]
本稿では,アクティブな学習シナリオで発生する過信の問題に対処する2つの新しい手法を提案する。
1つ目はCross-Mix-and-Mix(CMaM)と呼ばれる拡張戦略で、限られたトレーニング分布を拡張してモデルを校正することを目的としている。
2つ目は Ranked Margin Sampling (RankedMS) という選択戦略である。
論文 参考訳(メタデータ) (2023-08-21T09:04:54Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。