論文の概要: DC-LA: Difference-of-Convex Langevin Algorithm
- arxiv url: http://arxiv.org/abs/2601.22932v1
- Date: Fri, 30 Jan 2026 12:49:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.447931
- Title: DC-LA: Difference-of-Convex Langevin Algorithm
- Title(参考訳): DC-LA:差分凸ランゲヴィンアルゴリズム
- Authors: Hoang Phuc Hau Luu, Zhongjian Wang,
- Abstract要約: 我々は、$prop(-f-r)$というデータ項が遠いサンプリング問題を研究する。
私たちの結果は、その用語が示される。
DC-LAは正確な忠実度を生み出す。
real-d Toアプリケーションの設定と提供。
- 参考スコア(独自算出の注目度): 5.184108122340349
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a sampling problem whose target distribution is $π\propto \exp(-f-r)$ where the data fidelity term $f$ is Lipschitz smooth while the regularizer term $r=r_1-r_2$ is a non-smooth difference-of-convex (DC) function, i.e., $r_1,r_2$ are convex. By leveraging the DC structure of $r$, we can smooth out $r$ by applying Moreau envelopes to $r_1$ and $r_2$ separately. In line of DC programming, we then redistribute the concave part of the regularizer to the data fidelity and study its corresponding proximal Langevin algorithm (termed DC-LA). We establish convergence of DC-LA to the target distribution $π$, up to discretization and smoothing errors, in the $q$-Wasserstein distance for all $q \in \mathbb{N}^*$, under the assumption that $V$ is distant dissipative. Our results improve previous work on non-log-concave sampling in terms of a more general framework and assumptions. Numerical experiments show that DC-LA produces accurate distributions in synthetic settings and reliably provides uncertainty quantification in a real-world Computed Tomography application.
- Abstract(参考訳): 対象分布が$π\propto \exp(-f-r)$ であるようなサンプリング問題において、データフィデリティ項 $f$ はリプシッツ滑らかであり、正規化項 $r=r_1-r_2$ は非滑らか差分(DC)関数、すなわち$r_1,r_2$ は凸である。
r$ の DC 構造を利用することで、Moreau エンベロープを $r_1$ と $r_2$ に別々に適用することで$r$ を滑らかにすることができる。
直流プログラミングでは、正規化器の凹部をデータ忠実度に再分割し、対応する近位ランゲヴィンアルゴリズム(DC-LA)を研究する。
我々は、q$in \mathbb{N}^*$ に対する$q$-Wasserstein 距離を、$V$ が遠散逸性であるという仮定の下で、目標分布への DC-LA の収束性を確立する。
本結果は,より一般的なフレームワークと仮定の観点から,非log-concaveサンプリングに関するこれまでの作業を改善した。
数値実験により、DC-LAは合成条件下で正確な分布を生成し、実世界のComputerd Tomographyアプリケーションで確実な定量化を確実に提供することが示された。
関連論文リスト
- Proving the Limited Scalability of Centralized Distributed Optimization via a New Lower Bound Construction [57.93371273485736]
我々は、すべての労働者が同一の分布にアクセスする均質な(すなわちd.d.)場合であっても、すべての労働者が非バイアス付き境界 LDeltaepsilon2,$$$$$ のポリ対数的により良いポリ対数を求める集中型分散学習環境を考える。
論文 参考訳(メタデータ) (2025-06-30T13:27:39Z) - Entangled Mean Estimation in High-Dimensions [36.97113089188035]
信号のサブセットモデルにおける高次元エンタングルド平均推定の課題について検討する。
最適誤差(polylogarithmic factor)は$f(alpha,N) + sqrtD/(alpha N)$であり、$f(alpha,N)$は1次元問題の誤差であり、第二項は準ガウス誤差率である。
論文 参考訳(メタデータ) (2025-01-09T18:31:35Z) - Sampling from multi-modal distributions with polynomial query complexity in fixed dimension via reverse diffusion [16.463220658992064]
分布の幅広いクラスに対する最初のサンプリングアルゴリズムを提供する。
我々のアルゴリズムは時間反転拡散過程をシミュレートする。
メタスタビリティを回避し、モード位置に関する事前の知識を必要とせず、よく知られた対数平滑性仮定を緩和する。
論文 参考訳(メタデータ) (2024-12-31T17:51:39Z) - Convergence Analysis of Probability Flow ODE for Score-based Generative Models [5.939858158928473]
確率フローODEに基づく決定論的サンプリング器の収束特性を理論的・数値的両面から検討する。
連続時間レベルでは、ターゲットと生成されたデータ分布の総変動を$mathcalO(d3/4delta1/2)$で表すことができる。
論文 参考訳(メタデータ) (2024-04-15T12:29:28Z) - Data Structures for Density Estimation [66.36971978162461]
p$のサブリニア数($n$)が与えられた場合、主な結果は$k$のサブリニアで$v_i$を識別する最初のデータ構造になります。
また、Acharyaなどのアルゴリズムの改良版も提供します。
論文 参考訳(メタデータ) (2023-06-20T06:13:56Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。