論文の概要: Balanced Sharpness-Aware Minimization for Imbalanced Regression
- arxiv url: http://arxiv.org/abs/2508.16973v1
- Date: Sat, 23 Aug 2025 09:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.276289
- Title: Balanced Sharpness-Aware Minimization for Imbalanced Regression
- Title(参考訳): 不均衡回帰に対するバランスドシャープネスの最小化
- Authors: Yahao Liu, Qin Wang, Lixin Duan, Wen Li,
- Abstract要約: 実世界のデータは、しばしば不均衡な分布を示し、レグレッションモデルが特に希少な観測値のターゲット値に対して不適切な結果をもたらす。
回帰モデルの均一な一般化能力を実現するために,バランスドシャープネス・アウェア最小化(BSAM)を提案する。
特に,従来のシャープネス認識の最小化から始めて,観測空間全体にわたる一般化能力を均質化するための新たな目標再重み付け戦略を導入する。
- 参考スコア(独自算出の注目度): 29.03225426559032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regression is fundamental in computer vision and is widely used in various tasks including age estimation, depth estimation, target localization, \etc However, real-world data often exhibits imbalanced distribution, making regression models perform poorly especially for target values with rare observations~(known as the imbalanced regression problem). In this paper, we reframe imbalanced regression as an imbalanced generalization problem. To tackle that, we look into the loss sharpness property for measuring the generalization ability of regression models in the observation space. Namely, given a certain perturbation on the model parameters, we check how model performance changes according to the loss values of different target observations. We propose a simple yet effective approach called Balanced Sharpness-Aware Minimization~(BSAM) to enforce the uniform generalization ability of regression models for the entire observation space. In particular, we start from the traditional sharpness-aware minimization and then introduce a novel targeted reweighting strategy to homogenize the generalization ability across the observation space, which guarantees a theoretical generalization bound. Extensive experiments on multiple vision regression tasks, including age and depth estimation, demonstrate that our BSAM method consistently outperforms existing approaches. The code is available \href{https://github.com/manmanjun/BSAM_for_Imbalanced_Regression}{here}.
- Abstract(参考訳): 回帰はコンピュータビジョンにおいて基本的であり、年齢推定、深度推定、ターゲットローカライゼーション、<etc>といった様々なタスクで広く使われているが、実世界のデータはしばしば不均衡な分布を示し、レグレッションモデルが特に希少な観測値(不均衡回帰問題)に対して不適切な結果をもたらす。
本稿では、不均衡な一般化問題として、不均衡な回帰を再構成する。
そこで本研究では,観測空間における回帰モデルの一般化能力を評価するために,損失シャープネス特性について検討する。
すなわち、モデルパラメータに一定の摂動が与えられると、異なる目標観測の損失値に応じてモデルの性能がどのように変化するかを確認する。
観測空間全体に対する回帰モデルの一様一般化能力を実現するために, バランスドシャープネス・アウェア最小化~(BSAM) と呼ばれるシンプルで効果的な手法を提案する。
特に、従来のシャープネス対応の最小化から始まり、次に、理論的な一般化境界を保証する観測空間全体にわたる一般化能力を均質化するための新たな目標再重み付け戦略を導入する。
年齢・深度推定を含む多視点回帰タスクに関する大規模な実験により,我々のBSAM法が既存手法より常に優れていることが示された。
コードは href{https://github.com/manmanjun/BSAM_for_Im Balanced_Regression}{here} で利用できる。
関連論文リスト
- Resampling strategies for imbalanced regression: a survey and empirical analysis [5.863538874435322]
不均衡な問題は現実の異なる状況で起こりうるが、これに対処するために、再サンプリングやバランスをとるアルゴリズムの形である戦略が提案されている。
この研究は、様々なバランスと予測モデルからなる実験的な研究であり、ウィッチは、ユーザにとって重要な要素を捉えるためにメトリクスを使用する。
また、回帰モデル、学習プロセス、評価指標の3つの重要な基準に基づいて、不均衡回帰アプローチのための分類法を提案する。
論文 参考訳(メタデータ) (2025-07-16T04:34:42Z) - Imbalance in Regression Datasets [0.9374652839580183]
我々は、レグレッションの不均衡が、これまで見過ごされてきた同様に重要な問題であると主張している。
データセットのターゲット分布の過大な表現と過大な表現のため、回帰器は単純なモデルに縮退する傾向にある。
論文 参考訳(メタデータ) (2024-02-19T09:06:26Z) - Utilizing Multiple Inputs Autoregressive Models for Bearing Remaining
Useful Life Prediction [3.448070371030467]
軸受のRUL予測において,この課題に対処する新しい多入力自己回帰モデルを提案する。
自己回帰反復により、モデルはグローバルな受容場を獲得し、一般化の限界を効果的に克服する。
PMH2012データセットの実証評価では, 同様の自己回帰アプローチを用いたバックボーンネットワークと比較して, ルート平均角誤差(RMSE)とスコアが有意に低いことが示されている。
論文 参考訳(メタデータ) (2023-11-26T09:50:32Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - ResMem: Learn what you can and memorize the rest [79.19649788662511]
本稿では,既存の予測モデルを拡張するための残差記憶アルゴリズム(ResMem)を提案する。
構築によって、ResMemはトレーニングラベルを明示的に記憶することができる。
ResMemは、元の予測モデルのテストセットの一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2023-02-03T07:12:55Z) - Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data [8.115323786541078]
モデルトレーニング中のデータ歪/バイアスに対処することで回帰分析の精度を向上させることを目的としている。
回帰分析のための勾配降下モデルトレーニングを最適化するために,変分集中損失再重み付け法(VILoss)を提案する。
論文 参考訳(メタデータ) (2021-09-14T10:22:21Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。