論文の概要: Convergence rate of Tsallis entropic regularized optimal transport
- arxiv url: http://arxiv.org/abs/2304.06616v1
- Date: Thu, 13 Apr 2023 15:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 13:59:04.641738
- Title: Convergence rate of Tsallis entropic regularized optimal transport
- Title(参考訳): Tsallisエントロピー正規化最適輸送の収束速度
- Authors: Takeshi Suguro and Toshiaki Yachimura
- Abstract要約: 我々は、Tsallisエントロピックな正規化最適輸送を考慮し、収束率を正規化パラメータ $varepsilon$ が$0$ になるものとして議論する。
これは、エントロピー正則化された最適輸送のコンバージェンス率とクルバック-リーブラー分岐率を比較し、KLがTsallis相対エントロピーにおいて最速の収束率であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider Tsallis entropic regularized optimal transport and
discuss the convergence rate as the regularization parameter $\varepsilon$ goes
to $0$. In particular, we establish the convergence rate of the Tsallis
entropic regularized optimal transport using the quantization and shadow
arguments developed by Eckstein--Nutz. We compare this to the convergence rate
of the entropic regularized optimal transport with Kullback--Leibler (KL)
divergence and show that KL is the fastest convergence rate in terms of Tsallis
relative entropy.
- Abstract(参考訳): 本稿では, tsallis のエントロピー正規化最適輸送について考察し, 正規化パラメータ $\varepsilon$ が$0$ となるように収束率について考察する。
特に、Eckstein--Nutzによって開発された量子化とシャドウ引数を用いて、Tsallisエントロピー化された最適輸送の収束率を確立し、これをKullback-Leibler (KL) 分岐によるエントロピー正規化最適輸送の収束率と比較し、KLがTsallis相対エントロピーにおける最速収束率であることを示す。
関連論文リスト
- Faster Convergence of Stochastic Accelerated Gradient Descent under Interpolation [51.248784084461334]
我々はNesterov加速度アンダーホ条件の一般化版に対する新しい収束率を証明した。
本分析により, 従来の研究に比べて, 強い成長定数への依存度を$$$から$sqrt$に下げることができた。
論文 参考訳(メタデータ) (2024-04-03T00:41:19Z) - Weakly Convex Regularisers for Inverse Problems: Convergence of Critical Points and Primal-Dual Optimisation [12.455342327482223]
臨界点の観点から収束正則化の一般化された定式化を提案する。
これは弱凸正規化器のクラスによって達成されることを示す。
この理論を正規化学習に適用し、入力の弱い凸ニューラルネットワークに対する普遍的な近似を証明した。
論文 参考訳(メタデータ) (2024-02-01T22:54:45Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Convergence Rates for Regularized Optimal Transport via Quantization [3.04585143845864]
正規化パラメータが消滅するにつれて, 分散正則化最適輸送の収束について検討する。
量子化とマーチンゲール結合を用いた新しい手法は、非コンパクトなマーチンゲールに適している。
論文 参考訳(メタデータ) (2022-08-30T16:58:40Z) - Nearly Tight Convergence Bounds for Semi-discrete Entropic Optimal
Transport [0.483420384410068]
エントロピー半離散的最適輸送の解に対して、ほぼ厳密で非漸近収束境界を導出する。
また, エントロピーと非正規化コストの差を非漸近的かつ厳密に拡大させることも検討した。
論文 参考訳(メタデータ) (2021-10-25T06:52:45Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - Beyond Tikhonov: Faster Learning with Self-Concordant Losses via
Iterative Regularization [120.31448970413298]
我々は、チコノフ正則化の理論を一般化された自己協和損失関数に拡張する。
反復的チコノフ正規化スキームを用いて, GSC に対して高速かつ最適な速度が得られることを示す。
論文 参考訳(メタデータ) (2021-06-16T15:25:41Z) - The Convergence Indicator: Improved and completely characterized
parameter bounds for actual convergence of Particle Swarm Optimization [68.8204255655161]
我々は、粒子が最終的に単一点に収束するか、分岐するかを計算するのに使用できる新しい収束指標を導入する。
この収束指標を用いて、収束群につながるパラメータ領域を完全に特徴づける実際の境界を提供する。
論文 参考訳(メタデータ) (2020-06-06T19:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。