論文の概要: Local distribution-based adaptive oversampling for imbalanced regression
- arxiv url: http://arxiv.org/abs/2504.14316v1
- Date: Sat, 19 Apr 2025 14:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 01:27:57.533054
- Title: Local distribution-based adaptive oversampling for imbalanced regression
- Title(参考訳): 局所分布に基づく不均衡回帰のための適応オーバーサンプリング
- Authors: Shayan Alahyari, Mike Domaratzki,
- Abstract要約: 不均衡回帰は、連続目標変数が歪んだ分布を持ち、スパース領域を生成するときに起こる。
LDAO(Local Distribution-based Adaptive Oversampling, 局所分布に基づく適応オーバーサンプリング)を提案する。
LDAOは、各局所分布に固有の統計構造を保持しながら、目標範囲全体にわたってバランスの取れた表現を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imbalanced regression occurs when continuous target variables have skewed distributions, creating sparse regions that are difficult for machine learning models to predict accurately. This issue particularly affects neural networks, which often struggle with imbalanced data. While class imbalance in classification has been extensively studied, imbalanced regression remains relatively unexplored, with few effective solutions. Existing approaches often rely on arbitrary thresholds to categorize samples as rare or frequent, ignoring the continuous nature of target distributions. These methods can produce synthetic samples that fail to improve model performance and may discard valuable information through undersampling. To address these limitations, we propose LDAO (Local Distribution-based Adaptive Oversampling), a novel data-level approach that avoids categorizing individual samples as rare or frequent. Instead, LDAO learns the global distribution structure by decomposing the dataset into a mixture of local distributions, each preserving its statistical characteristics. LDAO then models and samples from each local distribution independently before merging them into a balanced training set. LDAO achieves a balanced representation across the entire target range while preserving the inherent statistical structure within each local distribution. In extensive evaluations on 45 imbalanced datasets, LDAO outperforms state-of-the-art oversampling methods on both frequent and rare target values, demonstrating its effectiveness for addressing the challenge of imbalanced regression.
- Abstract(参考訳): 不均衡回帰は、連続目標変数が歪んだ分布を持つときに発生し、機械学習モデルが正確に予測することが困難であるスパース領域を生成する。
この問題は、不均衡なデータに苦しむニューラルネットワークに特に影響する。
分類におけるクラス不均衡は広く研究されているが、非均衡回帰は比較的未解明であり、有効な解は少ない。
既存のアプローチはしばしば、サンプルを希少または頻繁なものとして分類するために任意のしきい値に依存し、ターゲット分布の連続的な性質を無視している。
これらの方法は、モデル性能の改善に失敗し、アンダーサンプリングによって貴重な情報を破棄する合成サンプルを作成することができる。
これらの制約に対処するために,各サンプルを稀かつ頻繁に分類することを避ける新しいデータレベルアプローチであるLDAO(Local Distribution-based Adaptive Oversampling)を提案する。
代わりに、LDAOはデータセットを局所分布の混合に分解してグローバルな分布構造を学習し、それぞれが統計特性を保存する。
LDAOはその後、各ローカルディストリビューションから独立したモデルとサンプルを生成して、それらをバランスの取れたトレーニングセットにマージする。
LDAOは、各局所分布に固有の統計構造を保持しながら、目標範囲全体にわたってバランスの取れた表現を実現する。
45の非バランスデータセットに対する広範な評価では、LDAOは頻繁な目標値と希少な目標値の両方で最先端のオーバーサンプリング手法を上回り、非バランスな回帰の課題に対処する効果を示す。
関連論文リスト
- SMOGAN: Synthetic Minority Oversampling with GAN Refinement for Imbalanced Regression [0.0]
不均衡回帰とは、ターゲット変数が歪んだ予測タスクを指す。
この歪みは、高密度領域に集中する機械学習モデル、特にニューラルネットワークを妨げる。
不均衡回帰のための2段階オーバーサンプリングフレームワークであるSMOGANを提案する。
論文 参考訳(メタデータ) (2025-04-29T20:15:25Z) - Error Distribution Smoothing:Advancing Low-Dimensional Imbalanced Regression [2.435853975142516]
実世界の回帰タスクでは、データセットは頻繁に不均衡な分布を示し、その特徴は、高複雑さ領域におけるデータの不足と低複雑さ領域における量の不足である。
データ密度のみに焦点をあてる従来の定義を超えて、問題の複雑さとデータポイントの密度の両方を考慮に入れた「不均衡回帰」という新しい概念を導入する。
本研究では,不均衡な回帰に対処するための解として誤り分布平滑化(EDS)を提案し,バランスと代表性を保ちながら,データセットから代表サブセットを効果的に選択し冗長性を低減する。
論文 参考訳(メタデータ) (2025-02-04T12:40:07Z) - Histogram Approaches for Imbalanced Data Streams Regression [1.8385275253826225]
不均衡なドメインは、特に回帰の文脈において、現実世界の予測分析において重要な課題となる。
本研究では,この制約を克服するためのヒストグラムに基づくサンプリング手法を提案する。
合成および実世界のベンチマークに関する総合的な実験により、HistUSとHistOSは稀な予測精度を大幅に改善した。
論文 参考訳(メタデータ) (2025-01-29T11:03:02Z) - Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
一般のスコアミスマッチ拡散サンプリング器に対する明示的な次元依存性を持つ最初の性能保証を示す。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Global Distance-distributions Separation for Unsupervised Person
Re-identification [93.39253443415392]
既存の教師なしのReIDアプローチは、距離ベースのマッチング/ランク付けを通じて正のサンプルと負のサンプルを正しく識別するのに失敗することが多い。
本研究では,2つの分布に対する大域的距離分布分離の制約を導入し,大域的視点から正と負のサンプルを明確に分離することを奨励する。
本研究では,本手法がベースラインを大幅に改善し,最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2020-06-01T07:05:39Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。