論文の概要: Variational expressions and Uhlmann theorem for measured divergences
- arxiv url: http://arxiv.org/abs/2502.07745v1
- Date: Tue, 11 Feb 2025 18:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:07:20.133681
- Title: Variational expressions and Uhlmann theorem for measured divergences
- Title(参考訳): 測定された発散に対する変分表現とウルマンの定理
- Authors: Kun Fang, Hamza Fawzi, Omar Fawzi,
- Abstract要約: 凸関数に対する測定値$f$-divergencesに対する変分式を$f$とする。
我々は、測定された$f$-分岐の幅広いクラスに対して、測定された$alpha$-R'enyi発散を含むウルマンの定理を確立する。
- 参考スコア(独自算出の注目度): 11.59751616011475
- License:
- Abstract: We present a variational expression for measured $f$-divergences for convex functions $f$. Under a suitable operator convexity condition, this variational expression leads to a convex optimization problem recovering the known expression in the case of R\'enyi divergences. As an application, we establish an Uhlmann theorem for a wide class of measured $f$-divergences including measured $\alpha$-R\'enyi divergences for all $\alpha \geq 0$. The well-known Uhlmann theorem for the fidelity corresponds to the special case $\alpha = \frac{1}{2}$.
- Abstract(参考訳): 凸関数に対する測定値$f$-divergencesに対する変分式を$f$とする。
適切な作用素凸条件の下では、この変動式はR\'enyi の発散の場合の既知の式を復元する凸最適化問題を引き起こす。
応用として、すべての$\alpha \geq 0$に対して、測定値 $\alpha$-R\'enyi の発散を含む、幅広い種類の $f$-divergences に対するウルマンの定理を確立する。
忠実性に対するよく知られたウルマンの定理は、特別な場合 $\alpha = \frac{1}{2}$ に対応する。
関連論文リスト
- Methods for Convex $(L_0,L_1)$-Smooth Optimization: Clipping, Acceleration, and Adaptivity [50.25258834153574]
我々は、(強に)凸 $(L0)$-smooth 関数のクラスに焦点を当て、いくつかの既存のメソッドに対する新しい収束保証を導出する。
特に,スムーズなグラディエント・クリッピングを有するグラディエント・ディフレッシュと,ポリアク・ステップサイズを有するグラディエント・ディフレッシュのコンバージェンス・レートの改善を導出した。
論文 参考訳(メタデータ) (2024-09-23T13:11:37Z) - Equivariant Manifold Neural ODEs and Differential Invariants [1.6073704837297416]
我々は同変多様体ニューラル常微分方程式(NODE)の明らかな幾何学的枠組みを開発する。
私たちは、対称データに対するモデリング能力を解析するためにそれを使用します。
論文 参考訳(メタデータ) (2024-01-25T12:23:22Z) - Intrinsic Bayesian Cramér-Rao Bound with an Application to Covariance Matrix Estimation [49.67011673289242]
本稿では, 推定パラメータが滑らかな多様体内にある推定問題に対して, 新たな性能境界を提案する。
これはパラメータ多様体の幾何学と推定誤差測度の本質的な概念を誘導する。
論文 参考訳(メタデータ) (2023-11-08T15:17:13Z) - A Primal-Dual Approach to Solving Variational Inequalities with General Constraints [54.62996442406718]
Yang et al. (2023) は最近、一般的な変分不等式を解決するために一階勾配法を使う方法を示した。
この方法の収束性を証明し、演算子が$L$-Lipschitz と monotone である場合、この手法の最後の繰り返しのギャップ関数が$O(frac1sqrtK)$で減少することを示す。
論文 参考訳(メタデータ) (2022-10-27T17:59:09Z) - Generalization in Supervised Learning Through Riemannian Contraction [4.3604518673788135]
教師付き学習環境では、計量 0 がアセシアンレート $lambda で収縮している場合、それは一様に$math であることを示す。
結果は、連続および安定な $-time において、勾配と決定論的損失曲面を保っている。
それらは、Descent$凸面や強い凸損失面など、ある種の線形な設定で最適であることを示すことができる。
論文 参考訳(メタデータ) (2022-01-17T23:08:47Z) - A first-order primal-dual method with adaptivity to local smoothness [64.62056765216386]
凸凹対象 $min_x max_y f(x) + langle Ax, yrangle - g*(y)$, ここで、$f$ は局所リプシッツ勾配を持つ凸関数であり、$g$ は凸かつ非滑らかである。
主勾配ステップと2段ステップを交互に交互に行うCondat-Vuアルゴリズムの適応バージョンを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:19:30Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Moreau-Yosida $f$-divergences [0.0]
$f$-divergencesの変分表現は多くの機械学習アルゴリズムの中心である。
コンパクト計量空間上の確率測度の場合、$f$-divergencesのいわゆるタイトな変動表現を一般化する。
我々は、Kullback-Leibler, reverse Kullback-Leibler, $chi2$, reverse $chi2$, squared Hellinger, Jensen-Shannon, Jeffreys, triangular discrimination and total variation divergencesの変分式の実装を提供する。
論文 参考訳(メタデータ) (2021-02-26T11:46:10Z) - Curvature-Dependant Global Convergence Rates for Optimization on
Manifolds of Bounded Geometry [6.85316573653194]
1-有界幾何多様体上で定義される弱凸函数に対する曲率依存性収束率を与える。
最適化文献でよく用いられる多様体に対して、これらの境界を明示的に計算する。
指数写像の微分のノルムに完全一般境界の自己完備証明を与える。
論文 参考訳(メタデータ) (2020-08-06T08:30:35Z) - Optimal Bounds between $f$-Divergences and Integral Probability Metrics [8.401473551081748]
確率分布の類似性を定量化するために、$f$-divergencesとIntegral Probability Metricsが広く使われている。
両家系の関係を凸双対性の観点から体系的に研究する。
我々は、Hoeffdingの補題のような統一的な方法でよく知られた結果を回復しながら、新しい境界を得る。
論文 参考訳(メタデータ) (2020-06-10T17:39:11Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。