論文の概要: Variance-Aware Estimation of Kernel Mean Embedding
- arxiv url: http://arxiv.org/abs/2210.06672v1
- Date: Thu, 13 Oct 2022 01:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 15:15:49.778168
- Title: Variance-Aware Estimation of Kernel Mean Embedding
- Title(参考訳): カーネル平均埋め込みの分散認識推定
- Authors: Geoffrey Wolfer and Pierre Alquier
- Abstract要約: RKHSの分散情報を利用して収束を高速化する方法を示す。
このような情報が未知の事前情報であっても、効率的にデータから推定できることが示される。
- 参考スコア(独自算出の注目度): 11.853438514668209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An important feature of kernel mean embeddings (KME) is that the rate of
convergence of the empirical KME to the true distribution KME can be bounded
independently of the dimension of the space, properties of the distribution and
smoothness features of the kernel. We show how to speed-up convergence by
leveraging variance information in the RKHS. Furthermore, we show that even
when such information is a priori unknown, we can efficiently estimate it from
the data, recovering the desiderata of a distribution agnostic bound that
enjoys acceleration in fortuitous settings. We illustrate our methods in the
context of hypothesis testing and robust parametric estimation.
- Abstract(参考訳): カーネル平均埋め込み(KME)の重要な特徴は、経験的KMEの真の分布KMEへの収束の速度が、空間の次元、分布の性質、カーネルの滑らかさの特徴とは無関係に境界付けられることである。
RKHSの分散情報を利用して収束を高速化する方法を示す。
さらに, 事前不明な情報であっても, データから効率的に推定でき, 偶然の設定で加速度を享受する分布非依存境界のデシデラタを回収できることを示した。
仮説テストとロバストなパラメトリック推定の文脈で,提案手法を説明する。
関連論文リスト
- The Mixtures and the Neural Critics: On the Pointwise Mutual Information
Profiles of Fine Distributions [52.85079110699378]
本稿では,情報分布の微細化をポイントワイドな情報プロファイルの近似に利用する方法を示す。
また, 相互情報のモデルに基づくベイズ推定において, 詳細な分布をいかに利用できるかを示す。
論文 参考訳(メタデータ) (2023-10-16T10:02:24Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Targeted Separation and Convergence with Kernel Discrepancies [66.48817218787006]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Non-parametric Kernel-Based Estimation of Probability Distributions for
Precipitation Modeling [0.0]
湿潤時間間隔の降水量の累積分布関数(CDF)の非パラメトリック推定を導出した。
我々は、KCDEが標準的な経験的(階段)推定よりも確率分布のより良い推定値を提供することを示した。
論文 参考訳(メタデータ) (2021-09-21T04:52:00Z) - Kernel Mean Estimation by Marginalized Corrupted Distributions [96.9272743070371]
カーネル平均をヒルベルト空間で推定することは、多くのカーネル学習アルゴリズムにおいて重要な要素である。
本稿では,カーネル平均推定器としてカーネル平均推定器を提案する。
論文 参考訳(メタデータ) (2021-07-10T15:11:28Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Reducing the Variance of Variational Estimates of Mutual Information by
Limiting the Critic's Hypothesis Space to RKHS [0.0]
相互情報(英: Mutual Information、MI)は、2つの確率変数間の依存性に関する情報理論の尺度である。
近年の手法では、未知密度比を近似するニューラルネットワークとしてパラメトリック確率分布や批判が実現されている。
我々は、高分散特性は、批評家の仮説空間の制御不能な複雑さに起因すると論じる。
論文 参考訳(メタデータ) (2020-11-17T14:32:48Z) - A Mean-Field Theory for Learning the Sch\"{o}nberg Measure of Radial
Basis Functions [13.503048325896174]
トレーニングサンプルから放射基底関数のシュンベルク積分表現の分布を学習する。
スケーリング限界において、ランゲヴィン粒子の経験的測度が、反射的イオ拡散ドリフト過程の法則に収束することを証明する。
論文 参考訳(メタデータ) (2020-06-23T21:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。