論文の概要: A Non-asymptotic Analysis for Learning and Applying a Preconditioner in MCMC
- arxiv url: http://arxiv.org/abs/2602.10714v1
- Date: Wed, 11 Feb 2026 10:19:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.747109
- Title: A Non-asymptotic Analysis for Learning and Applying a Preconditioner in MCMC
- Title(参考訳): MCMCにおけるプレコンディショナーの学習と適用のための非漸近解析
- Authors: Max Hird, Florian Maire, Jeffrey Negrea,
- Abstract要約: プレコンディショナーを学習するスキームの有限時間計算コストを分析し比較する。
プレコンディショナーを学習するスキームのために、ターゲットから約$N$の独立したサンプルを収集するのに要する時間に、漸近的でない保証を確立する。
- 参考スコア(独自算出の注目度): 2.1920579994942164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preconditioning is a common method applied to modify Markov chain Monte Carlo algorithms with the goal of making them more efficient. In practice it is often extremely effective, even when the preconditioner is learned from the chain. We analyse and compare the finite-time computational costs of schemes which learn a preconditioner based on the target covariance or the expected Hessian of the target potential with that of a corresponding scheme that does not use preconditioning. We apply our results to the Unadjusted Langevin Algorithm (ULA) for an appropriately regular target, establishing non-asymptotic guarantees for preconditioned ULA which learns its preconditioner. Our results are also applied to the unadjusted underdamped Langevin algorithm in the supplementary material. To do so, we establish non-asymptotic guarantees on the time taken to collect $N$ approximately independent samples from the target for schemes that learn their preconditioners under the assumption that the underlying Markov chain satisfies a contraction condition in the Wasserstein-2 distance. This approximate independence condition, that we formalize, allows us to bridge the non-asymptotic bounds of modern MCMC theory and classical heuristics of effective sample size and mixing time, and is needed to amortise the costs of learning a preconditioner across the many samples it will be used to produce.
- Abstract(参考訳): プレコンディショニング(Preconditioning)はマルコフ連鎖モンテカルロアルゴリズムをより効率的にするための一般的な手法である。
実際には、プレコンディショナーがチェーンから学習されたとしても、非常に効果的であることが多い。
本研究では,対象ポテンシャルの共分散や予測ヘシアンに基づいてプレコンディショナを学習するスキームの有限時間計算コストと,プレコンディショナリングを使用しない対応するスキームの計算コストを解析・比較する。
本研究は,未調整ランゲヴィンアルゴリズム(ULA)に適用し,プリコンディショナーを学習するプリコンディショニング ULA の非漸近保証を確立する。
また, 補充材料中のアン調整アンダーダムランゲヴィンアルゴリズムにも適用した。
そのため,この条件を満たすマルコフ連鎖がワッサーシュタイン2距離の収縮条件を満たすことを前提に,目標値から約$N$の独立サンプルを収集する時間に,非漸近的保証を確立する。
この近似独立条件は、私たちが形式化したもので、現代のMCMC理論の非漸近的境界と、有効なサンプルサイズと混合時間の古典的ヒューリスティックスを橋渡しすることができ、生成に使用する多くのサンプルに対してプレコンディショナーを学習するコストを和らげるために必要なものである。
関連論文リスト
- PROMISE: Preconditioned Stochastic Optimization Methods by Incorporating Scalable Curvature Estimates [17.777466668123886]
PROMISE ($textbfPr$econditioned $textbfO$ptimization $textbfM$ethods by $textbfI$ncorporating $textbfS$calable Curvature $textbfE$stimates)はスケッチベースの事前条件勾配アルゴリズムである。
PROMISEには、SVRG、SAGA、およびKatyushaのプレコンディション版が含まれている。
論文 参考訳(メタデータ) (2023-09-05T07:49:10Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Optimal Preconditioning and Fisher Adaptive Langevin Sampling [8.122270502556374]
我々は,アルゴリズムの実行時に発生する勾配履歴から事前条件を学習する,計算効率の良い適応MCMCスキームを導出する。
いくつかの実験において,提案アルゴリズムは高次元において非常に頑健であり,他の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-23T18:07:44Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Reframed GES with a Neural Conditional Dependence Measure [20.47061693587848]
Wevisit the Greedy Equivalence Search (GES) algorithm, which is known as a score-based algorithm for learn the Markov equivalence class (MEC)。
本稿では,GESアルゴリズムの再フレーミングについて述べる。
本稿では,ディープニューラルネットワークの表現力を利用したニューラル条件依存尺度を提案する。
論文 参考訳(メタデータ) (2022-06-17T03:29:08Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。