論文の概要: Generalized Oversampling for Learning from Imbalanced datasets and
Associated Theory
- arxiv url: http://arxiv.org/abs/2308.02966v1
- Date: Sat, 5 Aug 2023 23:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 17:29:07.864442
- Title: Generalized Oversampling for Learning from Imbalanced datasets and
Associated Theory
- Title(参考訳): 不均衡データセットからの学習のための一般化オーバーサンプリングと関連理論
- Authors: Samuel Stocksieker and Denys Pommeret and Arthur Charpentier
- Abstract要約: 教師あり学習では、実際の不均衡なデータセットに直面することが多い。
本稿では,カーネル密度推定に基づくデータ拡張手法であるGOLIATHアルゴリズムを提案する。
我々は,不均衡な回帰状況下でのGOLIATHアルゴリズムの性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In supervised learning, it is quite frequent to be confronted with real
imbalanced datasets. This situation leads to a learning difficulty for standard
algorithms. Research and solutions in imbalanced learning have mainly focused
on classification tasks. Despite its importance, very few solutions exist for
imbalanced regression. In this paper, we propose a data augmentation procedure,
the GOLIATH algorithm, based on kernel density estimates which can be used in
classification and regression. This general approach encompasses two large
families of synthetic oversampling: those based on perturbations, such as
Gaussian Noise, and those based on interpolations, such as SMOTE. It also
provides an explicit form of these machine learning algorithms and an
expression of their conditional densities, in particular for SMOTE. New
synthetic data generators are deduced. We apply GOLIATH in imbalanced
regression combining such generator procedures with a wild-bootstrap resampling
technique for the target values. We evaluate the performance of the GOLIATH
algorithm in imbalanced regression situations. We empirically evaluate and
compare our approach and demonstrate significant improvement over existing
state-of-the-art techniques.
- Abstract(参考訳): 教師あり学習では、実際の不均衡なデータセットに直面することが多い。
この状況により、標準アルゴリズムの学習が困難になる。
不均衡学習における研究と解決策は主に分類タスクに焦点を当てている。
その重要性にもかかわらず、不均衡回帰の解はほとんど存在しない。
本稿では、分類と回帰に使用できるカーネル密度推定に基づいて、データ拡張手法であるGOLIATHアルゴリズムを提案する。
この一般的なアプローチは、ガウスノイズのような摂動に基づくもの、SMOTEのような補間に基づくもの、という2つの大きな合成オーバーサンプリングのファミリーを含んでいる。
また、これらの機械学習アルゴリズムの明示的な形式と条件密度、特にSMOTEに対して表現を提供する。
新しい合成データジェネレータが推論される。
我々は,GOLIATHを,対象値に対するワイルドブートストラップ再サンプリング技術と組み合わせた不均衡回帰に適用する。
不均衡な回帰状況におけるGOLIATHアルゴリズムの性能を評価する。
私たちはこのアプローチを経験的に評価し比較し、既存の最先端技術よりも大幅に改善しています。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Improving SMOTE via Fusing Conditional VAE for Data-adaptive Noise Filtering [0.5735035463793009]
変分オートエンコーダ(VAE)を用いたSMOTEアルゴリズムの拡張フレームワークを提案する。
本稿では,VAEを用いて低次元潜在空間におけるデータ点密度を体系的に定量化し,クラスラベル情報と分類困難度を同時に統合する手法を提案する。
いくつかの不均衡データセットに関する実証的研究は、この単純なプロセスが、ディープラーニングモデルよりも従来のSMOTEアルゴリズムを革新的に改善することを示している。
論文 参考訳(メタデータ) (2024-05-30T07:06:02Z) - Learning a Gaussian Mixture for Sparsity Regularization in Inverse
Problems [2.375943263571389]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - A Novel Hybrid Sampling Framework for Imbalanced Learning [0.0]
SMOTE-RUS-NC」は他の最先端サンプリング技術と比較されている。
26個の不均衡なデータセットで厳密な実験が行われた。
論文 参考訳(メタデータ) (2022-08-20T07:04:00Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Handling Imbalanced Data: A Case Study for Binary Class Problems [0.0]
分類問題の解決における主要な問題は、不均衡データの問題である。
本稿では,合成オーバーサンプリング技術と手動で合成データポイントを計算することで,アルゴリズムの理解を深める。
我々は,これらの合成オーバーサンプリング手法を,不均衡比とサンプルサイズが異なる二項分類問題に適用する。
論文 参考訳(メタデータ) (2020-10-09T02:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。