論文の概要: Robust Unsupervised Learning via L-Statistic Minimization
- arxiv url: http://arxiv.org/abs/2012.07399v3
- Date: Thu, 18 Feb 2021 20:50:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 03:25:38.156640
- Title: Robust Unsupervised Learning via L-Statistic Minimization
- Title(参考訳): L-Statistic Minimizationによるロバスト教師なし学習
- Authors: Andreas Maurer, Daniela A. Parletta, Andrea Paudice, Massimiliano
Pontil
- Abstract要約: 教師なし学習に焦点をあて、この問題に対する一般的なアプローチを提示する。
重要な仮定は、摂動分布は、許容モデルの特定のクラスに対するより大きな損失によって特徴付けられることである。
教師なし学習におけるいくつかのポピュラーモデルに対する提案基準に関して,一様収束境界を証明した。
- 参考スコア(独自算出の注目度): 38.49191945141759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing learning algorithms that are resistant to perturbations of the
underlying data distribution is a problem of wide practical and theoretical
importance. We present a general approach to this problem focusing on
unsupervised learning. The key assumption is that the perturbing distribution
is characterized by larger losses relative to a given class of admissible
models. This is exploited by a general descent algorithm which minimizes an
$L$-statistic criterion over the model class, weighting small losses more. Our
analysis characterizes the robustness of the method in terms of bounds on the
reconstruction error relative to the underlying unperturbed distribution. As a
byproduct, we prove uniform convergence bounds with respect to the proposed
criterion for several popular models in unsupervised learning, a result which
may be of independent interest.Numerical experiments with kmeans clustering and
principal subspace analysis demonstrate the effectiveness of our approach.
- Abstract(参考訳): 基礎となるデータ分布の摂動に抵抗する学習アルゴリズムを設計することは、幅広い実践的および理論的重要性の問題である。
本稿では,教師なし学習に着目した一般的なアプローチを提案する。
鍵となる仮定は、摂動分布は与えられた許容モデルのクラスに対するより大きな損失によって特徴づけられるということである。
これは、モデルクラスに対する$L$-statistic criterionを最小化し、より小さな損失を重み付けする一般的な降下アルゴリズムによって利用される。
本解析は, 基礎となる非摂動分布に対する再構成誤差の境界の観点から, 手法のロバスト性を特徴付ける。
副産物として,教師なし学習におけるいくつかのポピュラーモデルに対する一様収束限界(unsupervised learning,unsupervised learning)を証明し,その結果が独立した興味を持つかもしれない。kmeansクラスタリングと主部分空間解析を用いた数値実験により,本手法の有効性が証明された。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - On the KL-Divergence-based Robust Satisficing Model [2.425685918104288]
頑丈さを満足させる枠組みは 学界から注目を集めています
本稿では,解析的解釈,多様な性能保証,効率的で安定した数値法,収束解析,階層型データ構造に適した拡張について述べる。
我々は、最先端のベンチマークと比較して、モデルの性能が優れていることを実証する。
論文 参考訳(メタデータ) (2024-08-17T10:05:05Z) - Random Matrix Analysis to Balance between Supervised and Unsupervised
Learning under the Low Density Separation Assumption [9.620832983703863]
線形分類モデルであるQLDSを導入し、低密度分離仮定を2次マージンで実装する。
提案アルゴリズムの特定のケースは、教師付きケースにおける最小二乗支援ベクトルマシン、完全に教師なしシステマにおけるスペクトルクラスタリング、および半教師付きグラフベースアプローチのクラスであることを示す。
論文 参考訳(メタデータ) (2023-10-20T11:46:12Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Robust Distributed Learning: Tight Error Bounds and Breakdown Point
under Data Heterogeneity [11.2120847961379]
本稿では,より現実的な不均一性モデル,すなわち(G,B)-段階的な相似性について考察し,既存の理論よりも学習問題を扱えることを示す。
また、分散学習アルゴリズムの学習誤差に新たな低い境界があることも証明する。
論文 参考訳(メタデータ) (2023-09-24T09:29:28Z) - Fine-grained analysis of non-parametric estimation for pairwise learning [9.676007573960383]
ペアワイズ学習における非パラメトリック推定の一般化性能について検討する。
我々の結果は、ランキング、AUC、ペアワイズ回帰、メートル法、類似性学習など、幅広いペアワイズ学習問題に対処するために利用できる。
論文 参考訳(メタデータ) (2023-05-31T08:13:14Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Outlier-Robust Learning of Ising Models Under Dobrushin's Condition [57.89518300699042]
本研究では, サンプルの一定割合が逆向きに破壊されるような外乱条件下で, ドブルシンの条件を満たすIsingモデルの学習問題について検討する。
我々の主な成果は、ほぼ最適誤差保証を伴うこの問題に対して、計算効率のよい最初の頑健な学習アルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-02-03T18:00:57Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。