論文の概要: Robust Mixture Learning when Outliers Overwhelm Small Groups
- arxiv url: http://arxiv.org/abs/2407.15792v1
- Date: Mon, 22 Jul 2024 16:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 14:00:56.266870
- Title: Robust Mixture Learning when Outliers Overwhelm Small Groups
- Title(参考訳): アウトリーマーが小グループを圧倒した場合のロバスト混合学習
- Authors: Daniil Dmitriev, Rares-Darius Buhai, Stefan Tiegel, Alexander Wolters, Gleb Novikov, Amartya Sanyal, David Steurer, Fanny Yang,
- Abstract要約: 敵が任意の外れ値を加える場合、適切に分離された混合の手段を推定する問題について検討する。
本稿では,各混合平均値に対して,最小のリストサイズオーバーヘッドで順序-最適誤差を保証するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 51.49063715477438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of estimating the means of well-separated mixtures when an adversary may add arbitrary outliers. While strong guarantees are available when the outlier fraction is significantly smaller than the minimum mixing weight, much less is known when outliers may crowd out low-weight clusters - a setting we refer to as list-decodable mixture learning (LD-ML). In this case, adversarial outliers can simulate additional spurious mixture components. Hence, if all means of the mixture must be recovered up to a small error in the output list, the list size needs to be larger than the number of (true) components. We propose an algorithm that obtains order-optimal error guarantees for each mixture mean with a minimal list-size overhead, significantly improving upon list-decodable mean estimation, the only existing method that is applicable for LD-ML. Although improvements are observed even when the mixture is non-separated, our algorithm achieves particularly strong guarantees when the mixture is separated: it can leverage the mixture structure to partially cluster the samples before carefully iterating a base learner for list-decodable mean estimation at different scales.
- Abstract(参考訳): 敵が任意の外れ値を加える場合、適切に分離された混合の手段を推定する問題について検討する。
最短混合重量よりもアウトリーチ分率が著しく小さい場合、強い保証が得られますが、低ウェイトクラスタからアウトリーチが群出する場合は、はるかに少なくなります — これはリストデコッド混合学習(LD-ML)と呼ばれる設定です。
この場合、対向的なアウトリーチは追加のスプリアス混合成分をシミュレートすることができる。
したがって、混合のすべての手段が出力リストの小さなエラーまで回復しなければならない場合、リストのサイズは(真の)コンポーネントの数よりも大きくなる必要がある。
LD-MLに適用可能な唯一の既存手法であるリスト分割可能な平均推定において、最小限のオーバヘッドで各混合平均の順序-最適誤差を保証し、大幅に改善するアルゴリズムを提案する。
混合が分離されていない場合でも改善が観察されるが,本アルゴリズムは混合構造を利用してサンプルを部分的にクラスタリングし,異なるスケールでリストデコタブル平均推定を行うためのベースラーナを慎重に反復することができる。
関連論文リスト
- Fast Semi-supervised Unmixing using Non-convex Optimization [85.95119207126292]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Clustering Mixtures of Bounded Covariance Distributions Under Optimal
Separation [44.25945344950543]
境界共分散分布の混合に対するクラスタリング問題について検討する。
このクラスタリングタスクに対して,最初のポリ時間アルゴリズムを提案する。
我々のアルゴリズムは、対数外乱の$Omega(alpha)$-fractionに対して堅牢である。
論文 参考訳(メタデータ) (2023-12-19T01:01:53Z) - Mixture Proportion Estimation Beyond Irreducibility [9.99177526976127]
我々は、既成のMPEアルゴリズムを既約性の下で動作させ、より一般的な条件下で動作させる再サンプリングに基づくメタアルゴリズムを提案する。
提案手法は,ベースライン法および最近提案された再グループ化に基づくアルゴリズムに対する推定性能の向上を示す。
論文 参考訳(メタデータ) (2023-06-02T03:32:44Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - On Learning Mixture of Linear Regressions in the Non-Realizable Setting [44.307245411703704]
線形回帰(MLR)の混合はラベルを予測せずに値のリストを予測できることを示す。
本稿では,一般的な最小化 (AM) アルゴリズムのバージョンが,実現可能なモデルが仮定されていない場合でも,データセットに最も適した線を見つけることを示す。
論文 参考訳(メタデータ) (2022-05-26T05:34:57Z) - Beyond Parallel Pancakes: Quasi-Polynomial Time Guarantees for
Non-Spherical Gaussian Mixtures [9.670578317106182]
kgeq 2$ Gaussian 成分と未知の手段と未知の共分散(すべての成分について同一視される)の混合を考える。
混合重量が指数関数的に小さい場合にのみこのような硬さが現れることを示す。
我々は,最小混合重量の時間準多項式を用いた2乗法に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-10T10:51:44Z) - MIX'EM: Unsupervised Image Classification using a Mixture of Embeddings [44.29313588655997]
教師なし画像分類のための新しいソリューションMIX'EMを提案する。
STL10, CIFAR10, CIFAR100-20データセットに関する広範な実験と分析を行った。
その結果,最先端の分類精度は78%,82%,44%であった。
論文 参考訳(メタデータ) (2020-07-18T19:24:22Z) - Consistent Estimation of Identifiable Nonparametric Mixture Models from
Grouped Observations [84.81435917024983]
この研究は、グループ化された観測から任意の同定可能な混合モデルを一貫して推定するアルゴリズムを提案する。
ペア化された観測のために実践的な実装が提供され、アプローチは既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-12T20:44:22Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。