論文の概要: $\alpha$-Geodesical Skew Divergence
- arxiv url: http://arxiv.org/abs/2103.17060v2
- Date: Thu, 1 Apr 2021 05:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 11:21:22.204926
- Title: $\alpha$-Geodesical Skew Divergence
- Title(参考訳): $\alpha$-geodesical Skew Divergence
- Authors: Masanari Kimura and Hideitsu Hino
- Abstract要約: 非対称スキュー発散は、パラメータ$lambda$によって決定される程度に、他の分布と混合することによって、分布の1つを滑らかにする。
このような発散は、KL発散の近似であり、ターゲット分布がソース分布に関して絶対連続である必要はない。
- 参考スコア(独自算出の注目度): 5.3556221126231085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The asymmetric skew divergence smooths one of the distributions by mixing it,
to a degree determined by the parameter $\lambda$, with the other distribution.
Such divergence is an approximation of the KL divergence that does not require
the target distribution to be absolutely continuous with respect to the source
distribution. In this paper, an information geometric generalization of the
skew divergence called the $\alpha$-geodesical skew divergence is proposed, and
its properties are studied.
- Abstract(参考訳): 非対称スキュー発散は、パラメータ $\lambda$ によって決定された次数と他の分布とを混合することによって、分布の1つを滑らかにする。
このような発散はkl発散の近似であり、対象分布がソース分布に関して絶対連続である必要はない。
本稿では,$\alpha$-geodesical skew divergenceと呼ばれるスキュー分岐の情報幾何学的一般化を提案し,その特性について検討する。
関連論文リスト
- Statistical and Geometrical properties of regularized Kernel Kullback-Leibler divergence [7.273481485032721]
Bach [2022] が導入したカーネル共分散作用素によるクルバック・リーブラ発散の統計的および幾何学的性質について検討する。
密度比を含む古典的なクルバック・リーブラー(KL)の発散とは異なり、KKLは再現可能なカーネルヒルベルト空間(RKHS)における共分散作用素(埋め込み)による確率分布を比較する。
この斬新な発散は、確率分布と最大平均誤差のようなカーネル埋め込みメトリクスの間の標準のクルバック・リーバーと平行だが異なる側面を共有する。
論文 参考訳(メタデータ) (2024-08-29T14:01:30Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Wrapped Distributions on homogeneous Riemannian manifolds [58.720142291102135]
パラメータ、対称性、モダリティなどの分布の性質の制御は、フレキシブルな分布の族を生み出す。
変動型オートエンコーダと潜在空間ネットワークモデル内で提案した分布を利用して,我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2022-04-20T21:25:21Z) - Non-Gaussian Component Analysis via Lattice Basis Reduction [56.98280399449707]
非ガウス成分分析(NGCA)は分布学習問題である。
我々は,NGCA に対して,$A$ が離散的あるいはほぼ離散的であるような効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-12-16T18:38:02Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - On the Robustness to Misspecification of $\alpha$-Posteriors and Their
Variational Approximations [12.52149409594807]
$alpha$-posteriorとその変分近似は、確率を下げ、変分近似エラーを導入することで標準後部推論を歪ませる。
このような歪みが適切に調整されると、潜在的なパラメトリックモデルの誤仕様がある場合、Kulback-Leibler (KL) の真の分散が、おそらく実現不可能な、後方分布が減少することを示した。
論文 参考訳(メタデータ) (2021-04-16T19:11:53Z) - Annealed Importance Sampling with q-Paths [51.73925445218365]
annealed importance sampling (ais) は分割関数や限界確率を推定するためのゴールド標準である。
既存の文献は、主に指数関数族とkl分岐に関連する幾何学的混合あるいはモーメント平均経路に制限されている。
q$-paths(特別な場合として幾何経路を含む)を用いてaiを探索し、均質なパワー平均、変形した指数関数族、および$alpha$-divergenceと関連づける。
論文 参考訳(メタデータ) (2020-12-14T18:57:05Z) - Independent Gaussian Distributions Minimize the Kullback-Leibler (KL)
Divergence from Independent Gaussian Distributions [23.249999313567624]
このノートは、KL(Kullback-Leibler)の発散の性質に関するものである。
このメモの主な目的は、この財産を完全にまたは部分的に利用する必要がある書類の参照である。
論文 参考訳(メタデータ) (2020-11-04T22:05:45Z) - Linear Optimal Transport Embedding: Provable Wasserstein classification
for certain rigid transformations and perturbations [79.23797234241471]
分布の区別は多くの科学分野において重要な問題である。
線形最適輸送(LOT)は分布の空間を$L2$-スペースに埋め込む。
複数の分布分類問題に対するLOTの利点を実証する。
論文 参考訳(メタデータ) (2020-08-20T19:09:33Z) - Kullback-Leibler divergence between quantum distributions, and its
upper-bound [1.2183405753834562]
この研究は、量子分布(QD)と呼ばれる確率分布のクラスに対して、KL(Kullback-Leibler)の発散が到達できる上限値を示す。
ここでは、エントロピーの発散に対する上界の取り出しは、比較分布が同じ量子値上の量子分布であるという条件の下で可能であることが示される。
論文 参考訳(メタデータ) (2020-08-13T14:42:13Z) - Generalized Bayesian Cram\'{e}r-Rao Inequality via Information Geometry
of Relative $\alpha$-Entropy [17.746238062801293]
相対$alpha$-エントロピーは相対エントロピーのR'enyiアナログである。
この量に関する最近の情報幾何学的な研究により、クラムラー・ラオの不等式が一般化された。
エントロピー次数がユニティに近づく極限の場合、この枠組みは従来のベイズ的クラム・ラオ不等式に還元される。
論文 参考訳(メタデータ) (2020-02-11T23:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。