論文の概要: Balanced MSE for Imbalanced Visual Regression
- arxiv url: http://arxiv.org/abs/2203.16427v1
- Date: Wed, 30 Mar 2022 16:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:44:55.426338
- Title: Balanced MSE for Imbalanced Visual Regression
- Title(参考訳): 不均衡視覚回帰のためのバランスドmse
- Authors: Jiawei Ren, Mingyuan Zhang, Cunjun Yu, Ziwei Liu
- Abstract要約: データ不均衡は、現実世界の視覚的回帰においてユビキタスに存在する。
不均衡回帰は、境界のない高次元の連続ラベルに焦点を当てる。
不均衡なトレーニングラベル分布に対応するために,新たな損失関数であるBa balanced MSEを提案する。
- 参考スコア(独自算出の注目度): 36.97675494319161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data imbalance exists ubiquitously in real-world visual regressions, e.g.,
age estimation and pose estimation, hurting the model's generalizability and
fairness. Thus, imbalanced regression gains increasing research attention
recently. Compared to imbalanced classification, imbalanced regression focuses
on continuous labels, which can be boundless and high-dimensional and hence
more challenging. In this work, we identify that the widely used Mean Square
Error (MSE) loss function can be ineffective in imbalanced regression. We
revisit MSE from a statistical view and propose a novel loss function, Balanced
MSE, to accommodate the imbalanced training label distribution. We further
design multiple implementations of Balanced MSE to tackle different real-world
scenarios, particularly including the one that requires no prior knowledge
about the training label distribution. Moreover, to the best of our knowledge,
Balanced MSE is the first general solution to high-dimensional imbalanced
regression. Extensive experiments on both synthetic and three real-world
benchmarks demonstrate the effectiveness of Balanced MSE.
- Abstract(参考訳): データの不均衡は実世界の視覚的回帰、例えば年齢推定やポーズ推定において普遍的に存在し、モデルの一般化性と公平性を損なう。
このように、不均衡回帰は近年研究の注目を集めている。
不均衡分類と比較すると、不均衡回帰は連続ラベルにフォーカスしており、境界なく高次元であり、それゆえより困難である。
本研究では,広く使用されている平均正方形誤差(MSE)損失関数が不均衡回帰において非効率であることを示す。
統計的視点からmseを再検討し,不均衡なトレーニングラベル分布に対応するための新しい損失関数であるバランスドmseを提案する。
さらに、トレーニングラベルの分布に関する事前知識を必要としないものを含む、さまざまな現実シナリオに対処するために、Balanced MSEの複数の実装を設計する。
さらに、我々の知る限りでは、高次元の不均衡回帰に対する最初の一般解である。
合成ベンチマークと3つの実世界のベンチマークの両方に関する広範な実験は、バランスのとれたmseの有効性を示している。
関連論文リスト
- Imbalance in Regression Datasets [0.9374652839580183]
我々は、レグレッションの不均衡が、これまで見過ごされてきた同様に重要な問題であると主張している。
データセットのターゲット分布の過大な表現と過大な表現のため、回帰器は単純なモデルに縮退する傾向にある。
論文 参考訳(メタデータ) (2024-02-19T09:06:26Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - A step towards understanding why classification helps regression [16.741816961905947]
本研究では,不均衡データを用いた回帰において,分類損失の付加効果が最も顕著であることを示す。
回帰タスクでは、データサンプリングが不均衡であれば、分類損失を加えます。
論文 参考訳(メタデータ) (2023-08-21T10:00:46Z) - Variational Imbalanced Regression: Fair Uncertainty Quantification via Probabilistic Smoothing [11.291393872745951]
既存の回帰モデルは、ラベル分布が不均衡である場合、精度と不確実性の推定の両方において不足する傾向にある。
変分不均衡回帰(VIR)と呼ばれる確率的深層学習モデルを提案する。
VIRは不均衡回帰において良好に機能するが、自然に副産物として妥当な不確かさを推定する。
論文 参考訳(メタデータ) (2023-06-11T06:27:06Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data [8.115323786541078]
モデルトレーニング中のデータ歪/バイアスに対処することで回帰分析の精度を向上させることを目的としている。
回帰分析のための勾配降下モデルトレーニングを最適化するために,変分集中損失再重み付け法(VILoss)を提案する。
論文 参考訳(メタデータ) (2021-09-14T10:22:21Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。