論文の概要: Imbalance in Regression Datasets
- arxiv url: http://arxiv.org/abs/2402.11963v1
- Date: Mon, 19 Feb 2024 09:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 17:28:47.887233
- Title: Imbalance in Regression Datasets
- Title(参考訳): 回帰データセットの不均衡
- Authors: Daniel Kowatsch, Nicolas M. M\"uller, Kilian Tscharke, Philip Sperl,
Konstantin B\"otinger
- Abstract要約: 我々は、レグレッションの不均衡が、これまで見過ごされてきた同様に重要な問題であると主張している。
データセットのターゲット分布の過大な表現と過大な表現のため、回帰器は単純なモデルに縮退する傾向にある。
- 参考スコア(独自算出の注目度): 0.9374652839580183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For classification, the problem of class imbalance is well known and has been
extensively studied. In this paper, we argue that imbalance in regression is an
equally important problem which has so far been overlooked: Due to under- and
over-representations in a data set's target distribution, regressors are prone
to degenerate to naive models, systematically neglecting uncommon training data
and over-representing targets seen often during training. We analyse this
problem theoretically and use resulting insights to develop a first definition
of imbalance in regression, which we show to be a generalisation of the
commonly employed imbalance measure in classification. With this, we hope to
turn the spotlight on the overlooked problem of imbalance in regression and to
provide common ground for future research.
- Abstract(参考訳): 分類に関して、クラス不均衡の問題はよく知られており、広く研究されている。
本稿では,データセットのターゲット分布の過度な表現と過度な表現のため,回帰器はネーティブなモデルに縮退する傾向にあり,非日常的なトレーニングデータやトレーニング中に頻繁に見られる過度なターゲットを体系的に無視する傾向にある。
我々は、この問題を理論的に分析し、結果の洞察を用いて回帰における不均衡の最初の定義を開発し、これは分類において一般的に用いられる不均衡尺度の一般化であることを示す。
これにより、不均衡という見落とされがちな問題に注目を向け、今後の研究に共通基盤を提供したいと思っています。
関連論文リスト
- IM-Context: In-Context Learning for Imbalanced Regression Tasks [9.318067144029403]
本稿では,従来の非重み付き学習手法の代替として,文脈内学習へのパラダイムシフトを提案する。
インコンテキスト学習(In-context learning)とは、インコンテキストサンプルからなるプロンプトシーケンスが与えられたモデル自体を条件にすることができることを指す。
理論的および経験的両視点から,プロンプトシーケンスがモデル性能に与える影響について検討した。
論文 参考訳(メタデータ) (2024-05-28T14:10:51Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - A step towards understanding why classification helps regression [16.741816961905947]
本研究では,不均衡データを用いた回帰において,分類損失の付加効果が最も顕著であることを示す。
回帰タスクでは、データサンプリングが不均衡であれば、分類損失を加えます。
論文 参考訳(メタデータ) (2023-08-21T10:00:46Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - Balanced MSE for Imbalanced Visual Regression [36.97675494319161]
データ不均衡は、現実世界の視覚的回帰においてユビキタスに存在する。
不均衡回帰は、境界のない高次元の連続ラベルに焦点を当てる。
不均衡なトレーニングラベル分布に対応するために,新たな損失関数であるBa balanced MSEを提案する。
論文 参考訳(メタデータ) (2022-03-30T16:21:42Z) - Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data [8.115323786541078]
モデルトレーニング中のデータ歪/バイアスに対処することで回帰分析の精度を向上させることを目的としている。
回帰分析のための勾配降下モデルトレーニングを最適化するために,変分集中損失再重み付け法(VILoss)を提案する。
論文 参考訳(メタデータ) (2021-09-14T10:22:21Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - Don't Just Blame Over-parametrization for Over-confidence: Theoretical
Analysis of Calibration in Binary Classification [58.03725169462616]
理論上は、過剰パラメトリゼーションは過剰信頼の唯一の理由ではない。
我々は、ロジスティック回帰は本質的に信頼過剰であり、実現可能で、非パラメータな設定であることを示す。
おそらく驚くことに、過剰な信頼が常にそうであるとは限らないことも示します。
論文 参考訳(メタデータ) (2021-02-15T21:38:09Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。