論文の概要: Entropic Convergence of Random Batch Methods for Interacting Particle
Diffusion
- arxiv url: http://arxiv.org/abs/2206.03792v1
- Date: Wed, 8 Jun 2022 10:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 21:33:27.165660
- Title: Entropic Convergence of Random Batch Methods for Interacting Particle
Diffusion
- Title(参考訳): 相互作用粒子拡散に対するランダムバッチ法のエントロピー収束
- Authors: Dheeraj Nagaraj
- Abstract要約: この研究は相互作用ポテンシャルについて最小限の仮定をし、特に粒子軌道が無限大に分岐しても、どちらの方法も同じ方法で行うことを証明している。
このような保証は、サンプリングのための相互作用粒子ベースのアルゴリズムの最近の進歩に照らして非常に有用である。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a co-variance corrected random batch method for interacting
particle systems. By establishing a certain entropic central limit theorem, we
provide entropic convergence guarantees for the law of the entire trajectories
of all particles of the proposed method to the law of the trajectories of the
discrete time interacting particle system whenever the batch size $B \gg
(\alpha n)^{\frac{1}{3}}$ (where $n$ is the number of particles and $\alpha$ is
the time discretization parameter). This in turn implies that the outputs of
these methods are nearly \emph{statistically indistinguishable} when $B$ is
even moderately large. Previous works mainly considered convergence in
Wasserstein distance with required stringent assumptions on the potentials or
the bounds had an exponential dependence on the time horizon. This work makes
minimal assumptions on the interaction potentials and in particular establishes
that even when the particle trajectories diverge to infinity, they do so in the
same way for both the methods. Such guarantees are very useful in light of the
recent advances in interacting particle based algorithms for sampling.
- Abstract(参考訳): 相互作用粒子系に対する共分散補正ランダムバッチ法を提案する。
ある種のエントロピー中心極限定理を確立することにより、バッチサイズ $b \gg (\alpha n)^{\frac{1}{3}}$ (ここで$n$ は粒子の数、$\alpha$ は時間離散化パラメータである) のときに、提案法の全粒子の軌道全体の法則を離散時間相互作用粒子系の軌道の法則にエントロピー収束保証を与える。
つまり、これらのメソッドの出力は、$b$ が中程度大きい場合にほぼ \emph{statistically indistinguishable} である。
以前の研究は主にワッサーシュタイン距離の収束を考慮し、ポテンシャルや境界に対する強い仮定は時間的地平線に指数関数的依存を持つ。
この研究は相互作用ポテンシャルの仮定を最小化しており、特に粒子軌道が無限大に発散した場合でも、両者の方法も同様に行うことを定めている。
このような保証は、サンプリングのための相互作用粒子ベースのアルゴリズムの最近の進歩に照らして非常に有用である。
関連論文リスト
- FastPart: Over-Parameterized Stochastic Gradient Descent for Sparse
optimisation on Measures [1.9950682531209156]
本稿では,コニックパーティクルグラディエントDescent(CPGD)のスケーラビリティを高めるために,ランダム特徴と協調してグラディエントDescent戦略を利用する新しいアルゴリズムを提案する。
i) 降下軌道に沿った解の総変動規範は、安定を保ち、望ましくないばらつきを防止し、 (ii) 収率$mathcalO(log(K)/sqrtK)$$$K以上の大域収束保証を確立し、アルゴリズムの効率と有効性を示す; (iii) さらに、分析と確立を行う。
論文 参考訳(メタデータ) (2023-12-10T20:41:43Z) - Robust Stochastic Optimization via Gradient Quantile Clipping [6.2844649973308835]
グラディエントDescent(SGD)のための量子クリッピング戦略を導入する。
通常のクリッピングチェーンとして、グラデーション・ニュー・アウトリージを使用します。
本稿では,Huberiles を用いたアルゴリズムの実装を提案する。
論文 参考訳(メタデータ) (2023-09-29T15:24:48Z) - Computing the Variance of Shuffling Stochastic Gradient Algorithms via
Power Spectral Density Analysis [6.497816402045099]
理論上の利点を持つ勾配降下(SGD)の2つの一般的な選択肢は、ランダムリシャッフル(SGDRR)とシャッフルオンス(SGD-SO)である。
本研究では,SGD,SGDRR,SGD-SOの定常変動について検討した。
論文 参考訳(メタデータ) (2022-06-01T17:08:04Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient
Clipping [69.9674326582747]
そこで本研究では,重み付き分散雑音を用いたスムーズな凸最適化のための,クリップ付きSSTMと呼ばれる新しい1次高速化手法を提案する。
この場合、最先端の結果を上回る新たな複雑さが証明される。
本研究は,SGDにおいて,ノイズに対する光細かな仮定を伴わずにクリッピングを施した最初の非自明な高確率複雑性境界を導出した。
論文 参考訳(メタデータ) (2020-05-21T17:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。