論文の概要: Potential Anchoring for imbalanced data classification
- arxiv url: http://arxiv.org/abs/2104.08548v1
- Date: Sat, 17 Apr 2021 14:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:30:56.279651
- Title: Potential Anchoring for imbalanced data classification
- Title(参考訳): 不均衡データ分類のためのポテンシャルアンカリング
- Authors: Micha{\l} Koziarski
- Abstract要約: 不均衡なデータオーバーとアンダーサンプリングのための統一フレームワークを提案します。
提案手法はラジアル基底関数を基礎となるクラス分布の元の形状を保存するために利用する。
60のアンバランスデータセット上で行った実験の結果は、最先端の再サンプリングアルゴリズム上でのポテンシャルアンコーリングのパフォーマンスを示した。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data imbalance remains one of the factors negatively affecting the
performance of contemporary machine learning algorithms. One of the most common
approaches to reducing the negative impact of data imbalance is preprocessing
the original dataset with data-level strategies. In this paper we propose a
unified framework for imbalanced data over- and undersampling. The proposed
approach utilizes radial basis functions to preserve the original shape of the
underlying class distributions during the resampling process. This is done by
optimizing the positions of generated synthetic observations with respect to
the potential resemblance loss. The final Potential Anchoring algorithm
combines over- and undersampling within the proposed framework. The results of
the experiments conducted on 60 imbalanced datasets show outperformance of
Potential Anchoring over state-of-the-art resampling algorithms, including
previously proposed methods that utilize radial basis functions to model class
potential. Furthermore, the results of the analysis based on the proposed data
complexity index show that Potential Anchoring is particularly well suited for
handling naturally complex (i.e. not affected by the presence of noise)
datasets.
- Abstract(参考訳): データ不均衡は、現代の機械学習アルゴリズムのパフォーマンスに悪影響を及ぼす要因の1つである。
データ不均衡の負の影響を減らすための最も一般的なアプローチの1つは、元のデータセットをデータレベルの戦略で前処理することだ。
本稿では,不均衡なデータのオーバーサンプリングとアンダーサンプリングのための統一フレームワークを提案する。
提案手法は放射状基底関数を用いて,再サンプリング過程における基底クラス分布の原形を保存する。
これは、生成した合成観測の潜在的な類似性損失に対する位置を最適化することで達成される。
最後のAnchoringアルゴリズムは、提案したフレームワーク内でオーバーサンプリングとアンダーサンプリングを組み合わせる。
60個の不均衡データセットを用いて行った実験の結果は、放射基底関数を用いてクラスポテンシャルをモデル化する手法を含む最先端再サンプリングアルゴリズムに対するポテンシャルアンチョリングの性能を示す。
さらに,データ複雑度指数に基づく解析結果から,自然複雑度(自然複雑度)の処理に特に適している可能性が示唆された。
ノイズの存在に影響されない)データセット。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Assumption-Lean Post-Integrated Inference with Negative Control Outcomes [0.0]
負の制御結果を用いて遅延不均一性を調整する頑健なポストインテグレート推論(PII)手法を提案する。
提案手法は,予測された直接効果推定値,隠された仲介者,共同設立者,モデレーターまで拡張する。
提案された二重頑健な推定器は、最小の仮定と潜在的な不特定性の下で一貫性があり、効率的である。
論文 参考訳(メタデータ) (2024-10-07T12:52:38Z) - DRoP: Distributionally Robust Pruning [11.930434318557156]
我々は、訓練されたモデルの分類バイアスにデータプルーニングが与える影響について、最初の系統的研究を行う。
そこで我々はDRoPを提案する。DRoPは,標準的なコンピュータビジョンベンチマークにおいて,その性能を実証的に実証し,分散的に頑健な手法である。
論文 参考訳(メタデータ) (2024-04-08T14:55:35Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Synthetic Information towards Maximum Posterior Ratio for deep learning
on Imbalanced Data [1.7495515703051119]
マイノリティクラスのための合成データを生成することによって,データのバランスをとる手法を提案する。
提案手法は,高エントロピーサンプルを同定することにより,情報領域のバランスを優先する。
実験結果から,提案手法の優れた性能を実証した。
論文 参考訳(メタデータ) (2024-01-05T01:08:26Z) - Generalized Oversampling for Learning from Imbalanced datasets and
Associated Theory [0.0]
教師あり学習では、実際の不均衡なデータセットに直面することが多い。
本稿では,カーネル密度推定に基づくデータ拡張手法であるGOLIATHアルゴリズムを提案する。
我々は,不均衡な回帰状況下でのGOLIATHアルゴリズムの性能を評価する。
論文 参考訳(メタデータ) (2023-08-05T23:08:08Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Open-Sampling: Exploring Out-of-Distribution data for Re-balancing
Long-tailed datasets [24.551465814633325]
深層ニューラルネットワークは通常、トレーニングデータセットが極端なクラス不均衡に苦しむ場合、パフォーマンスが良くない。
近年の研究では、半教師付き方式でアウト・オブ・ディストリビューションデータによる直接トレーニングが一般化性能を損なうことが報告されている。
そこで我々は,オープンセットノイズラベルを用いて学習データセットのクラス前のバランスを再調整する,オープンサンプリングと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-17T14:29:52Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Doing Great at Estimating CATE? On the Neglected Assumptions in
Benchmark Comparisons of Treatment Effect Estimators [91.3755431537592]
もっとも単純な設定であっても、無知性仮定に基づく推定は誤解を招く可能性があることを示す。
異種処理効果評価のための機械学習ベンチマークデータセットを2つ検討した。
ベンチマークデータセットの固有の特性が、他のものよりもいくつかのアルゴリズムを好んでいる点を強調します。
論文 参考訳(メタデータ) (2021-07-28T13:21:27Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。