論文の概要: Convergence rate of Tsallis entropic regularized optimal transport
- arxiv url: http://arxiv.org/abs/2304.06616v2
- Date: Mon, 07 Oct 2024 18:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:26:57.583742
- Title: Convergence rate of Tsallis entropic regularized optimal transport
- Title(参考訳): Tsallisエントロピー正規化最適輸送の収束速度
- Authors: Takeshi Suguro, Toshiaki Yachimura,
- Abstract要約: 我々は、正規化パラメータがゼロになる傾向にあるモンゲ-カントロヴィッチ問題への最適輸送を Tsallis 正規化した Tsallis の $Gamma$-convergence のような基本的な結果を確立する。
我々は, KL 正規化が Tsallis フレームワークで最速収束率を達成することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we study the Tsallis entropic regularized optimal transport in the continuous setting and establish fundamental results such as the $\Gamma$-convergence of the Tsallis regularized optimal transport to the Monge--Kantorovich problem as the regularization parameter tends to zero. In addition, using the quantization and shadow arguments developed by Eckstein--Nutz, we derive the convergence rate of the Tsallis entropic regularization and provide explicit constants. Furthermore, we compare these results with the well-known case of the Kullback--Leibler (KL) divergence regularization and show that the KL regularization achieves the fastest convergence rate in the Tsallis framework.
- Abstract(参考訳): 本稿では, Tsallis Entropic regularized optimal transport in the continuous set and established fundamental results as the $\Gamma$-convergence of the Tsallis regularized optimal transport to the Monge--Kantorovich problem as the regularization parameter as tends to zero, さらに, Eckstein--Nutzによって開発された量子化とシャドウ引数を用いて, Tsallis entropic regularizationの収束率を導出し, 明示定数を与える。
さらに、これらの結果をKL分散正規化のよく知られたケースと比較し、KL正規化がTsallisフレームワークの最速収束率を達成することを示す。
関連論文リスト
- Faster Convergence of Stochastic Accelerated Gradient Descent under Interpolation [51.248784084461334]
我々はNesterov加速度アンダーホ条件の一般化版に対する新しい収束率を証明した。
本分析により, 従来の研究に比べて, 強い成長定数への依存度を$$$から$sqrt$に下げることができた。
論文 参考訳(メタデータ) (2024-04-03T00:41:19Z) - Weakly Convex Regularisers for Inverse Problems: Convergence of Critical Points and Primal-Dual Optimisation [12.455342327482223]
臨界点の観点から収束正則化の一般化された定式化を提案する。
これは弱凸正規化器のクラスによって達成されることを示す。
この理論を正規化学習に適用し、入力の弱い凸ニューラルネットワークに対する普遍的な近似を証明した。
論文 参考訳(メタデータ) (2024-02-01T22:54:45Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Convergence Rates for Regularized Optimal Transport via Quantization [3.04585143845864]
正規化パラメータが消滅するにつれて, 分散正則化最適輸送の収束について検討する。
量子化とマーチンゲール結合を用いた新しい手法は、非コンパクトなマーチンゲールに適している。
論文 参考訳(メタデータ) (2022-08-30T16:58:40Z) - Nearly Tight Convergence Bounds for Semi-discrete Entropic Optimal
Transport [0.483420384410068]
エントロピー半離散的最適輸送の解に対して、ほぼ厳密で非漸近収束境界を導出する。
また, エントロピーと非正規化コストの差を非漸近的かつ厳密に拡大させることも検討した。
論文 参考訳(メタデータ) (2021-10-25T06:52:45Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - Beyond Tikhonov: Faster Learning with Self-Concordant Losses via
Iterative Regularization [120.31448970413298]
我々は、チコノフ正則化の理論を一般化された自己協和損失関数に拡張する。
反復的チコノフ正規化スキームを用いて, GSC に対して高速かつ最適な速度が得られることを示す。
論文 参考訳(メタデータ) (2021-06-16T15:25:41Z) - The Convergence Indicator: Improved and completely characterized
parameter bounds for actual convergence of Particle Swarm Optimization [68.8204255655161]
我々は、粒子が最終的に単一点に収束するか、分岐するかを計算するのに使用できる新しい収束指標を導入する。
この収束指標を用いて、収束群につながるパラメータ領域を完全に特徴づける実際の境界を提供する。
論文 参考訳(メタデータ) (2020-06-06T19:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。