論文の概要: A General Method for Robust Learning from Batches
- arxiv url: http://arxiv.org/abs/2002.11099v1
- Date: Tue, 25 Feb 2020 18:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:27:52.510485
- Title: A General Method for Robust Learning from Batches
- Title(参考訳): バッチからのロバスト学習のための汎用的手法
- Authors: Ayush Jain and Alon Orlitsky
- Abstract要約: 本稿では,バッチから頑健な学習を行う一般的なフレームワークについて考察し,連続ドメインを含む任意の領域に対する分類と分布推定の限界について考察する。
本手法は,一括分節分類,一括分節,単調,対数凹,ガウス混合分布推定のための,最初の頑健な計算効率の学習アルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 56.59844655107251
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many applications, data is collected in batches, some of which are corrupt
or even adversarial. Recent work derived optimal robust algorithms for
estimating discrete distributions in this setting. We consider a general
framework of robust learning from batches, and determine the limits of both
classification and distribution estimation over arbitrary, including
continuous, domains. Building on these results, we derive the first robust
agnostic computationally-efficient learning algorithms for piecewise-interval
classification, and for piecewise-polynomial, monotone, log-concave, and
gaussian-mixture distribution estimation.
- Abstract(参考訳): 多くのアプリケーションでは、データはバッチで収集されます。
最近の研究は、この設定で離散分布を推定するための最適ロバストアルゴリズムを導出した。
バッチから堅牢な学習を行う一般的なフレームワークを検討し、連続的なドメインを含む任意の領域に対する分類と分布推定の限界を決定する。
これらの結果をもとに, 分節間分類, 分節多項, 単音, 対コンケーブ, ガウス混合分布推定のための最初のロバスト無依存計算効率学習アルゴリズムを導出する。
関連論文リスト
- A naive aggregation algorithm for improving generalization in a class of learning problems [0.0]
本稿では,エキスパート・アドバイス・セッティングを用いた一般的な学習問題に対するナイーブ・アグリゲーション・アルゴリズムを提案する。
特に,高次元非線形関数をモデル化するための点推定の学習問題について考察する。
論文 参考訳(メタデータ) (2024-09-06T15:34:17Z) - On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates [5.13323375365494]
我々は,強い対数対数データの下での拡散に基づく生成モデルの収束挙動を理論的に保証する。
スコア推定に使用される関数のクラスは、スコア関数上のリプシッツネスの仮定を避けるために、リプシッツ連続関数からなる。
この手法はサンプリングアルゴリズムにおいて最もよく知られた収束率をもたらす。
論文 参考訳(メタデータ) (2023-11-22T18:40:45Z) - Diverse Projection Ensembles for Distributional Reinforcement Learning [6.754994171490016]
この研究は、分布的アンサンブルにおけるいくつかの異なる射影と表現の組み合わせを研究する。
我々は、平均1ドル=ワッサーシュタイン距離で測定されるアンサンブル不一致を、深層探査のボーナスとして利用するアルゴリズムを導出する。
論文 参考訳(メタデータ) (2023-06-12T13:59:48Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - A Unified Framework for Multi-distribution Density Ratio Estimation [101.67420298343512]
バイナリ密度比推定(DRE)は多くの最先端の機械学習アルゴリズムの基礎を提供する。
ブレグマン最小化の発散の観点から一般的な枠組みを開発する。
我々のフレームワークはバイナリDREでそれらのフレームワークを厳格に一般化する手法に導かれることを示す。
論文 参考訳(メタデータ) (2021-12-07T01:23:20Z) - Mean-based Best Arm Identification in Stochastic Bandits under Reward
Contamination [80.53485617514707]
本稿では,ギャップベースアルゴリズムと逐次除去に基づく2つのアルゴリズムを提案する。
具体的には、ギャップベースのアルゴリズムでは、サンプルの複雑さは定数要素まで最適であり、連続的な除去では対数因子まで最適である。
論文 参考訳(メタデータ) (2021-11-14T21:49:58Z) - Learning Stochastic Majority Votes by Minimizing a PAC-Bayes
Generalization Bound [15.557653926558638]
分類器の有限アンサンブルに対する多数票の対について検討し、その一般化特性について検討する。
ディリクレ分布でインスタンス化し、予測されるリスクに対して閉じた形式と微分可能な表現を可能にする。
結果の多数決学習アルゴリズムは、最先端の精度と(非空きな)厳密な境界から恩恵を得る。
論文 参考訳(メタデータ) (2021-06-23T16:57:23Z) - Greedy Bayesian Posterior Approximation with Deep Ensembles [22.466176036646814]
独立して訓練された目的の集合は、ディープラーニングにおける予測の不確実性を推定するための最先端のアプローチである。
関数空間における任意の問題に対する成分の混合に対して,本手法は部分モジュラーであることを示す。
論文 参考訳(メタデータ) (2021-05-29T11:35:27Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - A Distributional Analysis of Sampling-Based Reinforcement Learning
Algorithms [67.67377846416106]
定常ステップサイズに対する強化学習アルゴリズムの理論解析に対する分布的アプローチを提案する。
本稿では,TD($lambda$)や$Q$-Learningのような値ベースの手法が,関数の分布空間で制約のある更新ルールを持つことを示す。
論文 参考訳(メタデータ) (2020-03-27T05:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。