論文の概要: A step towards understanding why classification helps regression
- arxiv url: http://arxiv.org/abs/2308.10603v1
- Date: Mon, 21 Aug 2023 10:00:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 14:09:52.099343
- Title: A step towards understanding why classification helps regression
- Title(参考訳): 分類が回帰に役立つ理由を理解するためのステップ
- Authors: Silvia L. Pintea, Yancong Lin, Jouke Dijkstra, Jan C. van Gemert
- Abstract要約: 本研究では,不均衡データを用いた回帰において,分類損失の付加効果が最も顕著であることを示す。
回帰タスクでは、データサンプリングが不均衡であれば、分類損失を加えます。
- 参考スコア(独自算出の注目度): 16.741816961905947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A number of computer vision deep regression approaches report improved
results when adding a classification loss to the regression loss. Here, we
explore why this is useful in practice and when it is beneficial. To do so, we
start from precisely controlled dataset variations and data samplings and find
that the effect of adding a classification loss is the most pronounced for
regression with imbalanced data. We explain these empirical findings by
formalizing the relation between the balanced and imbalanced regression losses.
Finally, we show that our findings hold on two real imbalanced image datasets
for depth estimation (NYUD2-DIR), and age estimation (IMDB-WIKI-DIR), and on
the problem of imbalanced video progress prediction (Breakfast). Our main
takeaway is: for a regression task, if the data sampling is imbalanced, then
add a classification loss.
- Abstract(参考訳): 多くのコンピュータビジョン深部回帰手法は、回帰損失に分類損失を加える際に改善した結果を報告している。
ここでは、これが実際に有用であり、いつ有用であるかを考察する。
そのため, 精度よく制御されたデータセットの変動とデータサンプリングから始めると, 不均衡データによる回帰において, 分類損失を加える効果が最も顕著であることがわかった。
これらの経験的知見を,均衡と不均衡の回帰損失の関係を定式化することで説明する。
最後に, 深度推定 (NYUD2-DIR) と年齢推定 (IMDB-WIKI-DIR) の2つの実際の不均衡画像データセットと, 不均衡映像進行予測 (Breakfast) の問題について検討した。
回帰タスクでは、データサンプリングが不均衡であれば、分類損失を追加します。
関連論文リスト
- Generalized Regression with Conditional GANs [2.4171019220503402]
本稿では,学習データセットにおける特徴ラベルペアと,対応する入力と組み合わせて出力を区別できない予測関数を学習することを提案する。
回帰に対するこのアプローチは、私たちが適合するデータの分布に対する仮定を減らし、表現能力が向上することを示す。
論文 参考訳(メタデータ) (2024-04-21T01:27:47Z) - Imbalance in Regression Datasets [0.9374652839580183]
我々は、レグレッションの不均衡が、これまで見過ごされてきた同様に重要な問題であると主張している。
データセットのターゲット分布の過大な表現と過大な表現のため、回帰器は単純なモデルに縮退する傾向にある。
論文 参考訳(メタデータ) (2024-02-19T09:06:26Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Balanced MSE for Imbalanced Visual Regression [36.97675494319161]
データ不均衡は、現実世界の視覚的回帰においてユビキタスに存在する。
不均衡回帰は、境界のない高次元の連続ラベルに焦点を当てる。
不均衡なトレーニングラベル分布に対応するために,新たな損失関数であるBa balanced MSEを提案する。
論文 参考訳(メタデータ) (2022-03-30T16:21:42Z) - Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data [8.115323786541078]
モデルトレーニング中のデータ歪/バイアスに対処することで回帰分析の精度を向上させることを目的としている。
回帰分析のための勾配降下モデルトレーニングを最適化するために,変分集中損失再重み付け法(VILoss)を提案する。
論文 参考訳(メタデータ) (2021-09-14T10:22:21Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Variational Bayesian Unlearning [54.26984662139516]
本研究では, ベイズモデルの学習を, 消去する訓練データの小さな部分集合から, ほぼ非学習する問題について検討する。
消去されたデータから完全に学習されていないデータと、過去の信念を完全に忘れていないデータとをトレードオフする証拠を最小化するのと等価であることを示す。
VI を用いたモデルトレーニングでは、完全なデータから近似した(正確には)後続の信念しか得られず、未学習をさらに困難にしている。
論文 参考訳(メタデータ) (2020-10-24T11:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。