論文の概要: Disentangled Deep Smoothed Bootstrap for Fair Imbalanced Regression
- arxiv url: http://arxiv.org/abs/2508.13829v1
- Date: Tue, 19 Aug 2025 13:40:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.940142
- Title: Disentangled Deep Smoothed Bootstrap for Fair Imbalanced Regression
- Title(参考訳): 不均衡な回帰のためのアンタングル型深部スムーズブートストラップ
- Authors: Samuel Stocksieker, Denys pommeret, Arthur Charpentier,
- Abstract要約: 不均衡分布学習は、予測モデリングにおいて一般的で重要な課題であり、しばしば標準アルゴリズムの性能を低下させる。
本稿では,変分オートエンコーダ(VAE)を用いてデータ分布の潜在表現をモデル化し,定義する。
そこで我々は,不整合なVAEと潜伏空間に適用されるスムーズなブートストラップを組み合わせた,革新的なデータ生成手法を開発した。
- 参考スコア(独自算出の注目度): 1.2289361708127877
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Imbalanced distribution learning is a common and significant challenge in predictive modeling, often reducing the performance of standard algorithms. Although various approaches address this issue, most are tailored to classification problems, with a limited focus on regression. This paper introduces a novel method to improve learning on tabular data within the Imbalanced Regression (IR) framework, which is a critical problem. We propose using Variational Autoencoders (VAEs) to model and define a latent representation of data distributions. However, VAEs can be inefficient with imbalanced data like other standard approaches. To address this, we develop an innovative data generation method that combines a disentangled VAE with a Smoothed Bootstrap applied in the latent space. We evaluate the efficiency of this method through numerical comparisons with competitors on benchmark datasets for IR.
- Abstract(参考訳): 不均衡分布学習は、予測モデリングにおいて一般的で重要な課題であり、しばしば標準アルゴリズムの性能を低下させる。
様々なアプローチがこの問題に対処しているが、ほとんどは分類問題に特化しており、回帰に限定している。
本稿では,Im Balanced Regression (IR) フレームワークにおける表データの学習を改善する新しい手法を提案する。
本稿では,変分オートエンコーダ(VAE)を用いてデータ分布の潜在表現をモデル化し,定義する。
しかしながら、VAEは、他の標準アプローチと同様に、不均衡なデータでは非効率である。
そこで我々は,不整合なVAEと潜伏空間に適用されるスムーズなブートストラップを組み合わせた,革新的なデータ生成手法を開発した。
我々は、IRのベンチマークデータセット上で、競合相手と数値的に比較することで、この手法の有効性を評価する。
関連論文リスト
- DUPRE: Data Utility Prediction for Efficient Data Valuation [49.60564885180563]
Data Shapleyのような協調ゲーム理論に基づくデータ評価では、データユーティリティを評価し、複数のデータサブセットに対してMLモデルを再トレーニングする必要がある。
我々のフレームワークである textttDUPRE は、モデル再学習による評価ではなく、データユーティリティを予測することによって、サブセット評価当たりのコストを削減できる代替手法を採用しています。
具体的には、いくつかのデータサブセットのデータユーティリティを評価すると、textttDUPREは、他のすべてのデータサブセットの有用性を予測するために、emphGaussianプロセス(GP)回帰モデルに適合する。
論文 参考訳(メタデータ) (2025-02-22T08:53:39Z) - Error Distribution Smoothing:Advancing Low-Dimensional Imbalanced Regression [2.435853975142516]
実世界の回帰タスクでは、データセットは頻繁に不均衡な分布を示し、その特徴は、高複雑さ領域におけるデータの不足と低複雑さ領域における量の不足である。
データ密度のみに焦点をあてる従来の定義を超えて、問題の複雑さとデータポイントの密度の両方を考慮に入れた「不均衡回帰」という新しい概念を導入する。
本研究では,不均衡な回帰に対処するための解として誤り分布平滑化(EDS)を提案し,バランスと代表性を保ちながら,データセットから代表サブセットを効果的に選択し冗長性を低減する。
論文 参考訳(メタデータ) (2025-02-04T12:40:07Z) - Data Augmentation with Variational Autoencoder for Imbalanced Dataset [1.2289361708127877]
不均衡分布からの学習は予測モデリングにおいて大きな課題となる。
VAEとスムーズなブートストラップを組み合わせた新しいデータ生成手法を開発し,IRの課題に対処する。
論文 参考訳(メタデータ) (2024-12-09T22:59:03Z) - Adaptive debiased SGD in high-dimensional GLMs with streaming data [4.704144189806667]
本稿では,高次元一般化線形モデルにおけるオンライン推論に対する新しいアプローチを提案する。
提案手法は単一パスモードで動作し,全データセットアクセスや大次元要約統計ストレージを必要とする既存手法とは異なる。
我々の方法論的革新の核心は、動的目的関数に適した適応的降下アルゴリズムと、新しいオンラインデバイアス処理である。
論文 参考訳(メタデータ) (2024-05-28T15:36:48Z) - Generalized Oversampling for Learning from Imbalanced datasets and
Associated Theory [0.0]
教師あり学習では、実際の不均衡なデータセットに直面することが多い。
本稿では,カーネル密度推定に基づくデータ拡張手法であるGOLIATHアルゴリズムを提案する。
我々は,不均衡な回帰状況下でのGOLIATHアルゴリズムの性能を評価する。
論文 参考訳(メタデータ) (2023-08-05T23:08:08Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。