論文の概要: Direct loss minimization algorithms for sparse Gaussian processes
- arxiv url: http://arxiv.org/abs/2004.03083v3
- Date: Tue, 27 Oct 2020 18:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:52:20.163201
- Title: Direct loss minimization algorithms for sparse Gaussian processes
- Title(参考訳): スパースガウス過程の直接損失最小化アルゴリズム
- Authors: Yadi Wei, Rishit Sheth, Roni Khardon
- Abstract要約: 本論文は,疎ガウス過程の予測損失を最小限に抑えるために後部を最適化する直接損失(DLM)を徹底的に検討する。
非共役ケースにおけるDLMの適用は、ログロスDLMの目的における期待の最小化がしばしば引き起こされるため、より複雑である。
- 参考スコア(独自算出の注目度): 9.041035455989181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper provides a thorough investigation of Direct loss minimization
(DLM), which optimizes the posterior to minimize predictive loss, in sparse
Gaussian processes. For the conjugate case, we consider DLM for log-loss and
DLM for square loss showing a significant performance improvement in both
cases. The application of DLM in non-conjugate cases is more complex because
the logarithm of expectation in the log-loss DLM objective is often intractable
and simple sampling leads to biased estimates of gradients. The paper makes two
technical contributions to address this. First, a new method using product
sampling is proposed, which gives unbiased estimates of gradients (uPS) for the
objective function. Second, a theoretical analysis of biased Monte Carlo
estimates (bMC) shows that stochastic gradient descent converges despite the
biased gradients. Experiments demonstrate empirical success of DLM. A
comparison of the sampling methods shows that, while uPS is potentially more
sample-efficient, bMC provides a better tradeoff in terms of convergence time
and computational efficiency.
- Abstract(参考訳): 本報告では,ガウス過程における後方損失の最小化を最適化する直接損失最小化法(DLM)について,徹底的に検討する。
共役の場合,ログロスのDLMと2乗損失のDLMを考えると,両症例とも有意な性能改善が見られた。
非共役ケースにおけるDLMの適用は、ログロスDLMの目的における期待の対数がしばしば難解であり、単純なサンプリングは勾配のバイアス付き推定に繋がるため、より複雑である。
この論文はこれに対処するための2つの技術的貢献をしている。
まず, 目的関数に対する勾配 (up) の偏りのない推定を行うため, 製品サンプリングを用いた新しい手法を提案する。
第二に、バイアスドモンテカルロ推定(bmc)の理論解析により、バイアスド勾配にもかかわらず確率的勾配降下が収束することが示された。
実験はDLMの実証的な成功を示す。
サンプリング法の比較により、uPSはよりサンプリング効率が高いが、bMCは収束時間と計算効率の点でより良いトレードオフをもたらすことが示された。
関連論文リスト
- Zeroth-Order Fine-Tuning of LLMs in Random Subspaces [66.27334633749734]
言語モデルのサイズが大きくなるにつれて、バックプロパゲーションに対するメモリ要求が増加する。
Zeroth-order (ZOZO) 最適化手法はメモリ効率の代替手段を提供する。
本稿では,SubZeroがファインチューニングを強化し,通常のZOZO手法と比較して高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-11T17:01:43Z) - Faster Sampling without Isoperimetry via Diffusion-based Monte Carlo [30.4930148381328]
拡散に基づくモンテカルロ (DMC) は、等尺条件を超えた一般目標分布から試料を採取する手法である。
DMCは、高い勾配の複雑さに遭遇し、その結果、得られたサンプルのエラー耐性$epsilon$に指数関数的に依存する。
本稿では,新しい再帰に基づくスコア推定法に基づくRS-DMCを提案する。
私たちのアルゴリズムは、人気のあるLangevinベースのアルゴリズムよりもはるかに高速です。
論文 参考訳(メタデータ) (2024-01-12T02:33:57Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Implicit Regularization Properties of Variance Reduced Stochastic Mirror
Descent [7.00422423634143]
離散VRSMD推定器列は線形回帰において最小ミラー補間子に収束することを示す。
我々は、真のモデルがスパースである場合に設定したモデル推定精度を導出する。
論文 参考訳(メタデータ) (2022-04-29T19:37:24Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Amortized variance reduction for doubly stochastic objectives [17.064916635597417]
複素確率モデルにおける近似推論は二重目的関数の最適化を必要とする。
現在のアプローチでは、ミニバッチがサンプリング性にどのように影響するかを考慮せず、結果として準最適分散が減少する。
本稿では,認識ネットワークを用いて各ミニバッチに対して最適な制御変数を安価に近似する手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T13:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。