論文の概要: Learning Entangled Single-Sample Distributions via Iterative Trimming
- arxiv url: http://arxiv.org/abs/2004.09563v2
- Date: Tue, 7 Jul 2020 16:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 17:52:22.160502
- Title: Learning Entangled Single-Sample Distributions via Iterative Trimming
- Title(参考訳): 反復トリミングによる学習絡み合った単一サンプル分布
- Authors: Hui Yuan, Yingyu Liang
- Abstract要約: そこで本研究では, 反復トリミング標本に基づいて, 簡便かつ効率的な手法を解析し, トリミング標本集合上のパラメータを再推定する。
対数反復法では, 誤差が$lceil alpha n rceil$-th ノイズ点の雑音レベルにのみ依存する推定値が出力されることを示す。
- 参考スコア(独自算出の注目度): 28.839136703139225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the setting of entangled single-sample distributions, the goal is to
estimate some common parameter shared by a family of distributions, given one
\emph{single} sample from each distribution. We study mean estimation and
linear regression under general conditions, and analyze a simple and
computationally efficient method based on iteratively trimming samples and
re-estimating the parameter on the trimmed sample set. We show that the method
in logarithmic iterations outputs an estimation whose error only depends on the
noise level of the $\lceil \alpha n \rceil$-th noisiest data point where
$\alpha$ is a constant and $n$ is the sample size. This means it can tolerate a
constant fraction of high-noise points. These are the first such results for
the method under our general conditions. It also justifies the wide application
and empirical success of iterative trimming in practice. Our theoretical
results are complemented by experiments on synthetic data.
- Abstract(参考訳): 絡み合った単一サンプル分布の設定では、各分布から 1 個の \emph{single} サンプルを与えられた分布の族によって共有されるいくつかの共通パラメータを推定することが目的である。
一般条件下での平均推定と線形回帰について検討し,反復的トリミングとトリミングされたサンプル集合のパラメータの再推定に基づいて,単純で計算効率の良い手法を解析した。
対数反復法では,$\lceil \alpha n \rceil$-th nois most data point, $\alpha$ is a constant and $n$ is the sample size のノイズレベルのみに依存する誤差を推定する。
これは、高ノイズ点の一定分数を許容できることを意味する。
これらの結果は,本手法の一般条件下での最初のものである。
また、実践における反復的トリミングの幅広い適用と経験的成功を正当化する。
我々の理論結果は合成データの実験によって補完される。
関連論文リスト
- Improved Active Learning via Dependent Leverage Score Sampling [9.177032088236125]
非依存的なサンプリング戦略とレバレッジスコアサンプリングを組み合わせることで、非依存的(逆方向雑音)設定における能動的学習法の改善方法を示す。
独立サンプリングと比較して,本手法は,所定の目標精度に到達するために必要なサンプル数を最大50%削減する。
論文 参考訳(メタデータ) (2023-10-08T01:51:30Z) - Non-Stochastic CDF Estimation Using Threshold Queries [3.6576781735746513]
実験的な分布を2つの課題で推定する問題に取り組む。
まず、アルゴリズムはデータを直接観察するのではなく、サンプルについて限られた数のしきい値クエリしか要求しない。
第二に、データは独立で同一の分散であると仮定されず、代わりにサンプルを生成する任意のプロセスが可能である。
論文 参考訳(メタデータ) (2023-01-13T18:00:57Z) - On counterfactual inference with unobserved confounding [36.18241676876348]
独立だが不均一な単位を持つ観測的研究を前提として、各単位の反実分布を学習することが目的である。
我々は、すべての$n$サンプルをプールして、すべての$n$パラメータベクトルを共同で学習する凸目的を導入する。
対数的ソボレフ不等式を満たすためにコンパクトに支持された分布に対して十分な条件を導出する。
論文 参考訳(メタデータ) (2022-11-14T04:14:37Z) - SIMPLE: A Gradient Estimator for $k$-Subset Sampling [38.60825874225453]
この作業では、フォワードパスの離散$k$-subsetサンプリングに戻ります。
勾配推定器 SIMPLE は, 最先端推定器と比較して, バイアスやばらつきが低いことを示す。
実験結果から,線形回帰を説明・スパースする学習性能が向上した。
論文 参考訳(メタデータ) (2022-10-04T22:33:16Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Convergence for score-based generative modeling with polynomial
complexity [9.953088581242845]
我々は、Scoreベースの生成モデルの背後にあるコアメカニックに対する最初の収束保証を証明した。
以前の作品と比較すると、時間的に指数関数的に増加するエラーや、次元の呪いに苦しむエラーは発生しない。
予測器・相関器はどちらの部分のみを使用するよりも収束性が高いことを示す。
論文 参考訳(メタデータ) (2022-06-13T14:57:35Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。