論文の概要: Nonparametric mixture MLEs under Gaussian-smoothed optimal transport
distance
- arxiv url: http://arxiv.org/abs/2112.02421v1
- Date: Sat, 4 Dec 2021 20:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 11:52:50.373192
- Title: Nonparametric mixture MLEs under Gaussian-smoothed optimal transport
distance
- Title(参考訳): ガウス法による最適輸送距離の非パラメトリック混合mles
- Authors: Fang Han, Zhen Miao, and Yandi Shen
- Abstract要約: 我々は、真のデータ生成分布を近似するために、非平滑なフレームワークの代わりにGOTフレームワークを適用する。
我々の分析における重要なステップは、ガウス畳み込みリプシッツ函数の新しいジャクソン型近似の確立である。
この洞察は、非パラメトリックMLEと新しいGOTフレームワークを分析する既存のテクニックを橋渡しする。
- 参考スコア(独自算出の注目度): 0.39373541926236766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Gaussian-smoothed optimal transport (GOT) framework, pioneered in
Goldfeld et al. (2020) and followed up by a series of subsequent papers, has
quickly caught attention among researchers in statistics, machine learning,
information theory, and related fields. One key observation made therein is
that, by adapting to the GOT framework instead of its unsmoothed counterpart,
the curse of dimensionality for using the empirical measure to approximate the
true data generating distribution can be lifted. The current paper shows that a
related observation applies to the estimation of nonparametric mixing
distributions in discrete exponential family models, where under the GOT cost
the estimation accuracy of the nonparametric MLE can be accelerated to a
polynomial rate. This is in sharp contrast to the classical sub-polynomial
rates based on unsmoothed metrics, which cannot be improved from an
information-theoretical perspective. A key step in our analysis is the
establishment of a new Jackson-type approximation bound of Gaussian-convoluted
Lipschitz functions. This insight bridges existing techniques of analyzing the
nonparametric MLEs and the new GOT framework.
- Abstract(参考訳): gaussian-smoothed optimal transport (got) フレームワークはgoldfeld et al. (2020)で先駆的であり、その後一連の論文が続くが、統計学、機械学習、情報理論、関連分野の研究者の間で急速に注目を集めている。
そこで得られた重要な観察の1つは、GOTフレームワークを非平滑なフレームワークに適合させることで、実データ生成分布を近似するために経験的測度を使用するための次元性の呪いを解くことができることである。
本論文は、離散指数族モデルにおける非パラメトリック混合分布の推定に関連性のある観測を適用し、GOTコストの下では、非パラメトリックMLEの推定精度を多項式速度に加速できることを示した。
これは、情報理論の観点からは改善できない非平滑なメトリクスに基づく古典的なサブポリノミカルレートとは対照的である。
解析における重要なステップは、ガウス型畳み込みリプシッツ関数の新しいジャクソン型近似境界の確立である。
この洞察は、非パラメトリックMLEと新しいGOTフレームワークを分析する既存のテクニックを橋渡しする。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - von Mises Quasi-Processes for Bayesian Circular Regression [57.88921637944379]
円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
結果の確率モデルは、統計物理学における連続スピンモデルと関係を持つ。
後続推論のために、高速マルコフ連鎖モンテカルロサンプリングに寄与するストラトノビッチのような拡張を導入する。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Semi-parametric Expert Bayesian Network Learning with Gaussian Processes
and Horseshoe Priors [26.530289799110562]
本稿では,エキスパートベイズネットワーク(SEBN)におけるセミパラメトリック・レラ・オンシップの学習モデルを提案する。
我々は、最小限の非リン耳成分を導入する前に、ガウスのプロシースとホースシューを使用する。
実世界の未知のデータセットでは、ユーザ入力に対応するために多様なグラフを作成し、識別可能性の問題に対処し、解釈可能性を高める。
論文 参考訳(メタデータ) (2024-01-29T18:57:45Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Information Theoretic Structured Generative Modeling [13.117829542251188]
構造生成モデル (Structured Generative Model, SGM) と呼ばれる新しい生成モデルフレームワークが提案され, 簡単な最適化が可能となった。
この実装では、無限のガウス混合モデルを学習するために適合した単一白色ノイズ源への正則入力によって駆動される1つのニューラルネットワークを採用している。
予備的な結果は、SGMがデータ効率と分散、従来のガウス混合モデルと変分混合モデル、および敵ネットワークのトレーニングにおいてMINE推定を著しく改善することを示している。
論文 参考訳(メタデータ) (2021-10-12T07:44:18Z) - Machine Learning and Variational Algorithms for Lattice Field Theory [1.198562319289569]
格子量子場論の研究において、格子理論を定義するパラメータは連続体物理学にアクセスする臨界性に向けて調整されなければならない。
経路積分の領域に適用される輪郭変形に基づいてモンテカルロ推定器を「変形」する手法を提案する。
我々は,フローベースMCMCが臨界減速を緩和し,オブザーシフォールドが原理的応用のばらつきを指数関数的に低減できることを実証した。
論文 参考訳(メタデータ) (2021-06-03T16:37:05Z) - A Riemannian Newton Trust-Region Method for Fitting Gaussian Mixture
Models [0.0]
ガウス混合モデルのためのリーマン・ヘッシアンの式を紹介します。
さらに、実行時とイテレーション数の両方で現在のアプローチを上回る新しいNewton Trust-Regionメソッドを提案します。
論文 参考訳(メタデータ) (2021-04-30T12:48:32Z) - Reducing the Variance of Variational Estimates of Mutual Information by
Limiting the Critic's Hypothesis Space to RKHS [0.0]
相互情報(英: Mutual Information、MI)は、2つの確率変数間の依存性に関する情報理論の尺度である。
近年の手法では、未知密度比を近似するニューラルネットワークとしてパラメトリック確率分布や批判が実現されている。
我々は、高分散特性は、批評家の仮説空間の制御不能な複雑さに起因すると論じる。
論文 参考訳(メタデータ) (2020-11-17T14:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。