論文の概要: Delving into Deep Imbalanced Regression
- arxiv url: http://arxiv.org/abs/2102.09554v1
- Date: Thu, 18 Feb 2021 18:56:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:34:32.919754
- Title: Delving into Deep Imbalanced Regression
- Title(参考訳): 不均衡回帰の深化
- Authors: Yuzhe Yang, Kaiwen Zha, Ying-Cong Chen, Hao Wang, Dina Katabi
- Abstract要約: 我々は,不均衡回帰(dir)を,連続目標を持つ不均衡データからの学習として定義する。
分類空間と連続ラベル空間の差を動機として,ラベルと特徴の分布平滑化を提案する。
我々の研究は、実際の不均衡回帰問題に対するベンチマークとテクニックのギャップを埋める。
- 参考スコア(独自算出の注目度): 41.90687097747504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data often exhibit imbalanced distributions, where certain target
values have significantly fewer observations. Existing techniques for dealing
with imbalanced data focus on targets with categorical indices, i.e., different
classes. However, many tasks involve continuous targets, where hard boundaries
between classes do not exist. We define Deep Imbalanced Regression (DIR) as
learning from such imbalanced data with continuous targets, dealing with
potential missing data for certain target values, and generalizing to the
entire target range. Motivated by the intrinsic difference between categorical
and continuous label space, we propose distribution smoothing for both labels
and features, which explicitly acknowledges the effects of nearby targets, and
calibrates both label and learned feature distributions. We curate and
benchmark large-scale DIR datasets from common real-world tasks in computer
vision, natural language processing, and healthcare domains. Extensive
experiments verify the superior performance of our strategies. Our work fills
the gap in benchmarks and techniques for practical imbalanced regression
problems. Code and data are available at
https://github.com/YyzHarry/imbalanced-regression.
- Abstract(参考訳): 現実世界のデータはしばしば不均衡な分布を示し、特定の目標値の観測は著しく少ない。
不均衡なデータを扱う既存のテクニックは、カテゴリのインデックス、すなわち異なるクラスを持つターゲットに焦点を当てている。
しかし、多くのタスクは、クラス間のハードバウンダリが存在しない連続的なターゲットを含む。
我々は,そのような不均衡なデータから連続的目標を学習し,目標値に対する潜在的な欠落データを扱うこと,目標範囲全体を一般化すること,dir(deep unbalanced regression)を定義している。
カテゴリ空間と連続ラベル空間の本質的な違いを動機に、ラベルと特徴の両方の分布平滑化を提案し、近くのターゲットの効果を明示的に認識し、ラベルと学習された特徴分布の両方をキャリブレーションします。
コンピュータビジョン、自然言語処理、ヘルスケア領域における一般的な現実世界のタスクから大規模なDIRデータセットを収集およびベンチマークします。
広範な実験は、我々の戦略の優れた性能を検証する。
我々の研究は、実際の不均衡回帰問題に対するベンチマークとテクニックのギャップを埋める。
コードとデータはhttps://github.com/yyzharry/imbalanced-regressionで入手できる。
関連論文リスト
- Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - Model Optimization in Imbalanced Regression [2.580765958706854]
不均衡なドメイン学習は、あまり表現されていないがドメインにとって最も重要であるインスタンスを予測するための正確なモデルを作成することを目的としている。
主な理由の1つは、極端な(まれな)値の誤差を最小限に抑えることができる損失関数の欠如である。
最近、評価指標が導入された: 正方形誤差関連領域(SERA)
このメトリクスは、極端な値で犯したエラーに重点を置いていると同時に、ターゲット変数全体のパフォーマンスも考慮している。
論文 参考訳(メタデータ) (2022-06-20T20:23:56Z) - Extending the WILDS Benchmark for Unsupervised Adaptation [186.90399201508953]
We present the WILDS 2.0 update, which extends 8 of the 10 datasets in the WILDS benchmark of distribution shifts to include curated unlabeled data。
これらのデータセットは、組織学から野生生物保護まで幅広い応用、タスク(分類、回帰、検出)、モダリティにまたがる。
ドメイン不変量や自己学習,自己管理など,ラベルのないデータを活用する最先端の手法を体系的にベンチマークする。
論文 参考訳(メタデータ) (2021-12-09T18:32:38Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data [8.115323786541078]
モデルトレーニング中のデータ歪/バイアスに対処することで回帰分析の精度を向上させることを目的としている。
回帰分析のための勾配降下モデルトレーニングを最適化するために,変分集中損失再重み付け法(VILoss)を提案する。
論文 参考訳(メタデータ) (2021-09-14T10:22:21Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - A First Step Towards Distribution Invariant Regression Metrics [1.370633147306388]
分類において、F-Measure や Accuracy のようなパフォーマンス指標は、クラス分布に大きく依存していると繰り返し述べられている。
ロボットアプリケーションにおけるオドメトリパラメータの分布は,例えば,異なるセッション間で大きく異なる可能性がある。
ここでは、すべての関数値に対して等しく機能する回帰アルゴリズムや、高速のような特定の境界領域にフォーカスする回帰アルゴリズムが必要です。
論文 参考訳(メタデータ) (2020-09-10T23:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。