論文の概要: Two tales for a geometric Jensen--Shannon divergence
- arxiv url: http://arxiv.org/abs/2508.05066v2
- Date: Fri, 29 Aug 2025 06:41:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 13:41:09.919651
- Title: Two tales for a geometric Jensen--Shannon divergence
- Title(参考訳): 幾何学的ジェンセンのための2つの物語-シャノンの発散
- Authors: Frank Nielsen,
- Abstract要約: 幾何学的ジェンセン-シャノン分岐(G-JSD)は、機械学習と情報科学で人気を博した。
正の密度に合わせた幾何的ジェンセン-シャノン発散の代替定義を導入する。
この斬新な発散は、より一般的な正測度の場合に適用される拡張G-JSDと呼ばれる。
- 参考スコア(独自算出の注目度): 7.640010691467089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The geometric Jensen--Shannon divergence (G-JSD) gained popularity in machine learning and information sciences thanks to its closed-form expression between Gaussian distributions. In this work, we introduce an alternative definition of the geometric Jensen--Shannon divergence tailored to positive densities which does not normalize geometric mixtures. This novel divergence is termed the extended G-JSD as it applies to the more general case of positive measures. We report explicitly the gap between the extended G-JSD and the G-JSD when considering probability densities, and show how to express the G-JSD and extended G-JSD using the Jeffreys divergence and the Bhattacharyya distance or Bhattacharyya coefficient. The extended G-JSD is proven to be a $f$-divergence which is a separable divergence satisfying information monotonicity and invariance in information geometry. We derive corresponding closed-form formula for the two types of G-JSDs when considering the case of multivariate Gaussian distributions often met in applications. We consider Monte Carlo stochastic estimations and approximations of the two types of G-JSD using the projective $\gamma$-divergences. Although the square root of the JSD yields a metric distance, we show that this is not anymore the case for the two types of G-JSD. Finally, we explain how these two types of geometric JSDs can be interpreted as regularizations of the ordinary JSD.
- Abstract(参考訳): 幾何学的ジェンセン=シャノン発散(G-JSD)はガウス分布間の閉形式表現によって機械学習と情報科学で人気を得た。
本研究では、幾何学的混合を正規化しない正の密度に合わせた幾何的ジェンセン-シャノン発散の代替定義を導入する。
この斬新な発散は、より一般的な正測度の場合に適用される拡張G-JSDと呼ばれる。
確率密度を考慮した場合のG-JSDとG-JSDとのギャップを明示的に報告し,ジェフリーズ偏差とバッタリア距離あるいはバッタリア係数を用いてG-JSDとG-JSDの表現方法を示す。
拡張されたG-JSDは、情報の単調性と情報幾何学の不変性を満たす分離可能な分散である$f$-divergenceであることが証明されている。
多変量ガウス分布がよく応用される場合を考えると、2種類のG-JSDに対して対応する閉形式式を導出する。
モンテカルロ確率推定と2種類のG-JSDの近似を射影$\gamma$-divergencesを用いて検討する。
JSDの平方根は距離を持つが、2種類のG-JSDの場合、これはもはやそうではないことを示す。
最後に、これらの2種類の幾何学的JSDを通常のJSDの正規化として解釈する方法について説明する。
関連論文リスト
- Geometric Gaussian Approximations of Probability Distributions [25.021782278452005]
幾何ガウス近似の表現性について検討する。
そのような近似が普遍的であるという構成的証明を提供する。
一般微分同相写像が一様に高品質な幾何学的ガウス近似が得られるかどうかを論じる。
論文 参考訳(メタデータ) (2025-07-01T09:54:43Z) - Geometric Jensen-Shannon Divergence Between Gaussian Measures On Hilbert Space [5.985204759362746]
この研究は、無限次元ヒルベルト空間上のガウス測度の設定において、確率測度の幾何学的平均の概念に基づいて幾何学的ジェンセン=シャノン発散を研究する。
有限次元版を直接一般化するこの発散に対する閉形式表現を提案する。
論文 参考訳(メタデータ) (2025-06-12T08:53:16Z) - Bridging Geometric States via Geometric Diffusion Bridge [79.60212414973002]
本稿では,初期および対象の幾何状態を正確にブリッジする新しい生成モデリングフレームワークであるGeometric Diffusion Bridge (GDB)を紹介する。
GDBは、幾何学的状態の接続のためにDoobの$h$-transformの修正版から派生した同変拡散ブリッジを使用している。
我々はGDBが既存の最先端のアプローチを超越し、幾何学的状態を正確にブリッジするための新しい経路を開くことを示す。
論文 参考訳(メタデータ) (2024-10-31T17:59:53Z) - Bayesian Circular Regression with von Mises Quasi-Processes [57.88921637944379]
本研究では、円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
後部推論のために,高速ギブズサンプリングに寄与するストラトノビッチ様拡張法を導入する。
本研究では,このモデルを用いて風向予測と走行歩行周期のパーセンテージを関節角度の関数として適用する実験を行った。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Broadening Target Distributions for Accelerated Diffusion Models via a Novel Analysis Approach [49.97755400231656]
本研究では,新しいDDPMサンプリング器が,これまで考慮されていなかった3種類の分散クラスに対して高速化性能を実現することを示す。
この結果から, DDPM型加速サンプリング器におけるデータ次元$d$への依存性が改善された。
論文 参考訳(メタデータ) (2024-02-21T16:11:47Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - The Representation Jensen-Shannon Divergence [0.0]
確率分布の違いの定量化は機械学習において重要である。
本研究は,従来のジェンセン・シャノン発散に触発された新しい尺度であるジェンセン・シャノン発散(RJSD)の表現を提案する。
本研究は, RJSDが2サンプル試験, 分散シフト検出, 教師なし領域適応において優れていることを示すものである。
論文 参考訳(メタデータ) (2023-05-25T19:44:36Z) - Hyperbolic VAE via Latent Gaussian Distributions [7.258394470200572]
本稿ではガウス多様体の変分オートエンコーダ(GM-VAE)を提案する。
実験では、画像データセットの密度推定とモデルベース強化学習における環境モデリングの2つのタスクにおけるGM-VAEの有効性を実証した。
論文 参考訳(メタデータ) (2022-09-30T04:09:06Z) - The Schr\"odinger Bridge between Gaussian Measures has a Closed Form [101.79851806388699]
我々は OT の動的定式化(Schr"odinger bridge (SB) 問題)に焦点を当てる。
本稿では,ガウス測度間のSBに対する閉形式表現について述べる。
論文 参考訳(メタデータ) (2022-02-11T15:59:01Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Fast approximations of the Jeffreys divergence between univariate
Gaussian mixture models via exponential polynomial densities [16.069404547401373]
ジェフリーズ・ダイバージェンス(英: Jeffreys divergence)は、機械学習、信号処理、情報科学でよく用いられる統計学のクルバック・リブラーの有名な対称性である。
任意の成分数の2つのGMM間のジェフリーズ偏差を近似するために, 単純かつ高速な関数を提案する。
論文 参考訳(メタデータ) (2021-07-13T07:58:01Z) - Entropy-Regularized $2$-Wasserstein Distance between Gaussian Measures [2.320417845168326]
エントロピー規則化された2-ワッサーシュタイン距離の下でガウス幾何学を研究する。
ガウス多様体に制限された集団バリセンターの固定点特徴付けを提供する。
正規化マグニチュードの変化により、測地線が変化するにつれて、消滅と無限大の制限事例について研究する。
論文 参考訳(メタデータ) (2020-06-05T13:18:57Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。