論文の概要: Targeted Separation and Convergence with Kernel Discrepancies
- arxiv url: http://arxiv.org/abs/2209.12835v1
- Date: Mon, 26 Sep 2022 16:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:31:22.417204
- Title: Targeted Separation and Convergence with Kernel Discrepancies
- Title(参考訳): カーネルの相違によるターゲット分離と収束
- Authors: Alessandro Barp, Carl-Johann Simon-Gabriel, Mark Girolami, Lester
Mackey
- Abstract要約: カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
- 参考スコア(独自算出の注目度): 82.74318586955857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Maximum mean discrepancies (MMDs) like the kernel Stein discrepancy (KSD)
have grown central to a wide range of applications, including hypothesis
testing, sampler selection, distribution approximation, and variational
inference. In each setting, these kernel-based discrepancy measures are
required to (i) separate a target P from other probability measures or even
(ii) control weak convergence to P. In this article we derive new sufficient
and necessary conditions to ensure (i) and (ii). For MMDs on separable metric
spaces, we characterize those kernels that separate Bochner embeddable measures
and introduce simple conditions for separating all measures with unbounded
kernels and for controlling convergence with bounded kernels. We use these
results on $\mathbb{R}^d$ to substantially broaden the known conditions for KSD
separation and convergence control and to develop the first KSDs known to
exactly metrize weak convergence to P. Along the way, we highlight the
implications of our results for hypothesis testing, measuring and improving
sample quality, and sampling with Stein variational gradient descent.
- Abstract(参考訳): kernel stein discrepancy (ksd) のような最大平均偏差 (mmd) は、仮説検定、標本選択、分布近似、変分推論など、幅広い応用の中心に成長してきた。
各設定では、これらのカーネルベースの不一致対策が必要である。
(i)目標pを他の確率測度や偶数と分離する
第二に、Pに対する弱収束を制御し、本項では、確実な新しい十分かつ必要な条件を導出する。
(i)および
(ii)
分離可能な距離空間上のMDDに対して、ボヒナー埋め込み可能な測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離し、有界カーネルとの収束を制御するための単純な条件を導入する。
我々はこれらの結果を$\mathbb{r}^d$ を用いて, ksd分離および収束制御の既知の条件を大幅に拡大し, p への弱収束を正確に評価できる最初の ksd を開発する。
関連論文リスト
- Partial identification of kernel based two sample tests with mismeasured
data [5.076419064097733]
最大平均離散性(MMD)のような2サンプルテストは、機械学習アプリケーションにおける2つの分布の違いを検出するためにしばしば使用される。
我々は,1つの分布の非ランダムな$epsilon$%が互いに誤ってグループ化されるような,$epsilon$-contaminationに基づくMDDの推定について検討した。
そこで本研究では,これらの境界を推定する手法を提案し,サンプルサイズが大きくなるにつれてMDD上の最も鋭い限界に収束する推定値を示す。
論文 参考訳(メタデータ) (2023-08-07T13:21:58Z) - Controlling Moments with Kernel Stein Discrepancies [80.27423363467499]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Cycle Consistent Probability Divergences Across Different Spaces [38.43511529063335]
確率分布の相違は、統計的推測と機械学習の核心にある。
本研究は, 異方性, 異方性, 異方性, 異なる空間上の分布をマッチングするための, アンバランスなモンジュ最適輸送定式化を提案する。
論文 参考訳(メタデータ) (2021-11-22T16:35:58Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - A Unified Joint Maximum Mean Discrepancy for Domain Adaptation [73.44809425486767]
本論文は,最適化が容易なjmmdの統一形式を理論的に導出する。
統合JMMDから、JMMDは分類に有利な特徴ラベル依存を低下させることを示す。
本稿では,その依存を促進する新たなmmd行列を提案し,ラベル分布シフトにロバストな新しいラベルカーネルを考案する。
論文 参考訳(メタデータ) (2021-01-25T09:46:14Z) - Towards a Unified Quadrature Framework for Large-Scale Kernel Machines [35.32894170512829]
数値積分表現を用いて,大規模カーネルマシンのための二次的フレームワークを開発する。
完全対称補間規則を利用して、カーネル近似のための二次ノードと関連する重みを効率的に計算する。
論文 参考訳(メタデータ) (2020-11-03T12:48:07Z) - Generalized Sliced Distances for Probability Distributions [47.543990188697734]
我々は、一般化スライス確率測定(GSPM)と呼ばれる、幅広い確率測定値の族を紹介する。
GSPMは一般化されたラドン変換に根付いており、ユニークな幾何学的解釈を持つ。
GSPMに基づく勾配流を生成モデル応用に適用し、軽度な仮定の下では、勾配流が大域的最適に収束することを示す。
論文 参考訳(メタデータ) (2020-02-28T04:18:00Z) - Distributed, partially collapsed MCMC for Bayesian Nonparametrics [68.5279360794418]
ディリクレ法やベータ・ベルヌーリ法のようなモデルでよく用いられる完全無作為測度は独立な部分測度に分解可能であるという事実を利用する。
この分解を用いて、潜在測度を、インスタンス化された成分のみを含む有限測度と、他のすべての成分を含む無限測度に分割する。
得られたハイブリッドアルゴリズムは、収束保証を犠牲にすることなくスケーラブルな推論を可能にすることができる。
論文 参考訳(メタデータ) (2020-01-15T23:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。