論文の概要: High-accuracy log-concave sampling with stochastic queries
- arxiv url: http://arxiv.org/abs/2602.14342v1
- Date: Sun, 15 Feb 2026 23:19:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:49.962272
- Title: High-accuracy log-concave sampling with stochastic queries
- Title(参考訳): 確率的クエリを用いた高精度ログコンケーブサンプリング
- Authors: Fan Chen, Sinho Chewi, Constantinos Daskalakis, Alexander Rakhlin,
- Abstract要約: サブエクスフォデンシャルテールの繰り返し勾配を用いて,ログコンケーブサンプリングの精度保証が達成可能であることを示す。
また、このフレームワークは、0番目の順序(値)クエリの下でも、同様の高精度な保証を提供する。
- 参考スコア(独自算出の注目度): 70.90863485771405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that high-accuracy guarantees for log-concave sampling -- that is, iteration and query complexities which scale as $\mathrm{poly}\log(1/δ)$, where $δ$ is the desired target accuracy -- are achievable using stochastic gradients with subexponential tails. Notably, this exhibits a separation with the problem of convex optimization, where stochasticity (even additive Gaussian noise) in the gradient oracle incurs $\mathrm{poly}(1/δ)$ queries. We also give an information-theoretic argument that light-tailed stochastic gradients are necessary for high accuracy: for example, in the bounded variance case, we show that the minimax-optimal query complexity scales as $Θ(1/δ)$. Our framework also provides similar high accuracy guarantees under stochastic zeroth order (value) queries.
- Abstract(参考訳): 例えば,$δ$が所望の目標精度であるような$\mathrm{poly}\log(1/δ)$とスケールする反復とクエリの複雑さは,部分指数尾を持つ確率勾配を用いて達成可能であることを示す。
特に、これは凸最適化の問題と分離しており、勾配オラクルにおける確率性(加法的ガウスノイズさえも)が$\mathrm{poly}(1/δ)$クエリを発生させる。
例えば、有界分散の場合、ミニマックス-最適クエリの複雑性は$1/δ)$でスケールすることを示す。
我々のフレームワークは、確率的ゼロ次(値)クエリの下でも同様に高精度な保証を提供する。
関連論文リスト
- Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - A randomized algorithm for nonconvex minimization with inexact evaluations and complexity guarantees [7.08249229857925]
勾配 Hessian に不連続な滑らかな非オラクル関数の最小化を考える。
提案手法の新たな特徴は, 負曲率の近似方向が選択された場合, 感覚緩和を等勾配で負となるように選択することである。
論文 参考訳(メタデータ) (2023-10-28T22:57:56Z) - Sampling from Gaussian Process Posteriors using Stochastic Gradient
Descent [43.097493761380186]
勾配アルゴリズムは線形系を解くのに有効な方法である。
最適値に収束しない場合であっても,勾配降下は正確な予測を導出することを示す。
実験的に、勾配降下は十分に大規模または不条件の回帰タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-20T15:07:37Z) - Zero-Order One-Point Estimate with Distributed Stochastic
Gradient-Tracking Technique [23.63073074337495]
本研究では,各エージェントが滑らかで凸な局所目的関数を持つ分散マルチエージェント最適化問題を考える。
分散勾配追跡法を,勾配推定のない帯域設定に拡張する。
近似ツールを用いた滑らかで凸な目的のための新しい手法の収束解析を行う。
論文 参考訳(メタデータ) (2022-10-11T17:04:45Z) - Convergence of First-Order Methods for Constrained Nonconvex
Optimization with Dependent Data [7.513100214864646]
収束$tildeO(t-1/4)$とMoreautildeO(vareps-4)$がスムーズな非最適化のために最悪の場合の複雑性を示す。
適応的なステップサイズと最適収束度を持つ投影勾配法に基づく従属データに対する最初のオンライン非負行列分解アルゴリズムを得る。
論文 参考訳(メタデータ) (2022-03-29T17:59:10Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Improved Complexities for Stochastic Conditional Gradient Methods under
Interpolation-like Conditions [12.096252285460814]
条件付き勾配法では, 勾配オラクルへの$mathcalO(epsilon-1.5)$呼び出しが必要であり, 最適解を求める。
勾配のスライディングステップを含めると、呼び出しの数は$mathcalO(epsilon-1.5)$に減少する。
論文 参考訳(メタデータ) (2020-06-15T06:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。