論文の概要: Deep Imbalanced Regression via Hierarchical Classification Adjustment
- arxiv url: http://arxiv.org/abs/2310.17154v1
- Date: Thu, 26 Oct 2023 04:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 22:01:17.304324
- Title: Deep Imbalanced Regression via Hierarchical Classification Adjustment
- Title(参考訳): 階層的分類調整による深い不均衡回帰
- Authors: Haipeng Xiong, Angela Yao
- Abstract要約: コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
- 参考スコア(独自算出の注目度): 50.19438850112964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regression tasks in computer vision, such as age estimation or counting, are
often formulated into classification by quantizing the target space into
classes. Yet real-world data is often imbalanced -- the majority of training
samples lie in a head range of target values, while a minority of samples span
a usually larger tail range. By selecting the class quantization, one can
adjust imbalanced regression targets into balanced classification outputs,
though there are trade-offs in balancing classification accuracy and
quantization error. To improve regression performance over the entire range of
data, we propose to construct hierarchical classifiers for solving imbalanced
regression tasks. The fine-grained classifiers limit the quantization error
while being modulated by the coarse predictions to ensure high accuracy.
Standard hierarchical classification approaches, however, when applied to the
regression problem, fail to ensure that predicted ranges remain consistent
across the hierarchy. As such, we propose a range-preserving distillation
process that can effectively learn a single classifier from the set of
hierarchical classifiers. Our novel hierarchical classification adjustment
(HCA) for imbalanced regression shows superior results on three diverse tasks:
age estimation, crowd counting and depth estimation. We will release the source
code upon acceptance.
- Abstract(参考訳): 年齢推定やカウントなどのコンピュータビジョンにおける回帰タスクは、ターゲット空間をクラスに定量化することで分類されることが多い。
しかし、現実世界のデータはしばしばバランスが取れない。トレーニングサンプルの大部分はターゲット値の先頭範囲にあるが、少数のサンプルは通常より広いテール範囲にまたがる。
クラス量子化を選択することで、不均衡回帰目標をバランスのとれた分類出力に調整することができるが、分類精度と量子化誤差のバランスのトレードオフがある。
データ全体にわたる回帰性能を向上させるために,不均衡回帰タスクを解決する階層的分類器を構築することを提案する。
きめ細かい分類器は、粗い予測によって変調されながら量子化誤差を制限する。
しかし、回帰問題に適用された標準的な階層的分類アプローチは、予測範囲が階層全体にわたって一貫していることを保証するのに失敗する。
そこで本研究では,階層型分類器の集合から単一分類器を効果的に学習できる範囲保存蒸留法を提案する。
不均衡回帰に対する新しい階層的分類調整 (hca) は, 年齢推定, 群衆数, 深さ推定の3つのタスクにおいて優れた結果を示す。
受け入れ次第、ソースコードをリリースします。
関連論文リスト
- Generalization bounds for regression and classification on adaptive covering input domains [1.4141453107129398]
一般化誤差の上限となる一般化境界に着目する。
分類タスクの場合、対象関数を1ホット、ピースワイド定数関数として扱い、誤差測定に0/1ロスを用いる。
論文 参考訳(メタデータ) (2024-07-29T05:40:08Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - No One Left Behind: Improving the Worst Categories in Long-Tailed
Learning [29.89394406438639]
このような評価設定の下では、いくつかのカテゴリは必然的に犠牲にされます。
多様な手法に適用可能な簡易なプラグイン法を提案する。
論文 参考訳(メタデータ) (2023-03-07T03:24:54Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z) - Binary Classification: Counterbalancing Class Imbalance by Applying
Regression Models in Combination with One-Sided Label Shifts [0.4970364068620607]
クラス不均衡の問題に対処する新しい手法を提案する。
我々は、対応する回帰タスクが均衡するように、負と正の目標ラベルのセットを生成する。
我々は,複数の公開データセットに対するアプローチを評価し,提案手法を最もポピュラーなオーバーサンプリング手法と比較した。
論文 参考訳(メタデータ) (2020-11-30T13:24:47Z) - Initial Classifier Weights Replay for Memoryless Class Incremental
Learning [11.230170401360633]
インクリメンタルラーニング(IL)は、人工システムがデータのストリームを扱う必要があり、常にすべてのデータにアクセスできない場合に有用である。
バニラ微調整バックボーンに基づく別のアプローチを提案する。
我々は、メモリレスインクリメンタルな学習環境で、4つの公開データセットで徹底的な評価を行う。
論文 参考訳(メタデータ) (2020-08-31T16:18:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。