論文の概要: Fast and Correct Gradient-Based Optimisation for Probabilistic
Programming via Smoothing
- arxiv url: http://arxiv.org/abs/2301.03415v1
- Date: Mon, 9 Jan 2023 15:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 18:30:01.789945
- Title: Fast and Correct Gradient-Based Optimisation for Probabilistic
Programming via Smoothing
- Title(参考訳): スムーシングによる確率的プログラミングのための高速で正確なグラディエントベース最適化
- Authors: Basim Khajwal, C.-H. Luke Ong, Dominik Wagner
- Abstract要約: 本稿では,後部推論を最適化問題とする変分推論の基礎について検討する。
私たちは、測定可能とスムーズな(近似的な)値セマンティクスの両方を言語に与えました。
提案手法は鍵となる競合相手と同様の収束性を持つが,よりシンプルで,高速で,作業正規化分散の桁違いの低減が達成できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the foundations of variational inference, which frames posterior
inference as an optimisation problem, for probabilistic programming. The
dominant approach for optimisation in practice is stochastic gradient descent.
In particular, a variant using the so-called reparameterisation gradient
estimator exhibits fast convergence in a traditional statistics setting.
Unfortunately, discontinuities, which are readily expressible in programming
languages, can compromise the correctness of this approach. We consider a
simple (higher-order, probabilistic) programming language with conditionals,
and we endow our language with both a measurable and a smoothed (approximate)
value semantics. We present type systems which establish technical
pre-conditions. Thus we can prove stochastic gradient descent with the
reparameterisation gradient estimator to be correct when applied to the
smoothed problem. Besides, we can solve the original problem up to any error
tolerance by choosing an accuracy coefficient suitably. Empirically we
demonstrate that our approach has a similar convergence as a key competitor,
but is simpler, faster, and attains orders of magnitude reduction in
work-normalised variance.
- Abstract(参考訳): 確率的プログラミングのための後進推論を最適化問題として扱う変分推論の基礎について検討する。
実際に最適化を行う主要なアプローチは確率勾配降下である。
特に、いわゆる再パラメータ化勾配推定器を用いた変種は、従来の統計設定において高速収束を示す。
残念ながら、プログラミング言語で容易に表現できる不連続性は、このアプローチの正しさを損なう可能性がある。
我々は、条件付き単純(高次で確率的な)プログラミング言語を検討し、測定可能とスムーズな(近似的な)値セマンティクスの両方で言語を支持した。
技術的前提条件を確立する型システムを提案する。
したがって, 平滑化問題に適用した場合, 再パラメータ化勾配推定器を用いて確率的勾配降下を証明できる。
また、精度係数を適切に選べば、エラー許容度まで元の問題を解くことができる。
経験的に、我々のアプローチは重要な競合相手と同じような収束性を持つが、シンプルで高速であり、作業正規化分散の桁違いな削減を達成できることを実証する。
関連論文リスト
- An Adaptive Stochastic Gradient Method with Non-negative Gauss-Newton Stepsizes [17.804065824245402]
機械学習の応用では、各損失関数は非負であり、平方根とその実数値平方根の構成として表すことができる。
本稿では, ガウス・ニュートン法やレフスカルト法を適用して, 滑らかだが非負な関数の平均を最小化する方法を示す。
論文 参考訳(メタデータ) (2024-07-05T08:53:06Z) - Diagonalisation SGD: Fast & Convergent SGD for Non-Differentiable Models
via Reparameterisation and Smoothing [1.6114012813668932]
微分不可能な関数を断片的に定義するための単純なフレームワークを導入し,スムース化を得るための体系的なアプローチを提案する。
我々の主な貢献は SGD の新たな変種 Diagonalisation Gradient Descent であり、滑らかな近似の精度を徐々に向上させる。
我々のアプローチは単純で高速で安定であり、作業正規化分散の桁数削減を実現している。
論文 参考訳(メタデータ) (2024-02-19T00:43:22Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Optimal Guarantees for Algorithmic Reproducibility and Gradient
Complexity in Convex Optimization [55.115992622028685]
以前の研究は、一階法はより良い収束率(漸進収束率)をトレードオフする必要があることを示唆している。
最適複雑性と準最適収束保証の両方を、滑らかな凸最小化と滑らかな凸最小化問題に対して達成できることを実証する。
論文 参考訳(メタデータ) (2023-10-26T19:56:52Z) - Analyzing Inexact Hypergradients for Bilevel Learning [0.09669369645900441]
暗黙の関数定理と自動微分/バックプロパゲーションに基づいて既存の手法を一般化する過次計算のための統一的なフレームワークを提案する。
計算結果から,高次アルゴリズムの選択は低次解法の選択と同等に重要であることが明らかとなった。
論文 参考訳(メタデータ) (2023-01-11T23:54:27Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Optimizing generalization on the train set: a novel gradient-based
framework to train parameters and hyperparameters simultaneously [0.0]
一般化は機械学習における中心的な問題である。
本稿では,新たなリスク尺度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T18:04:36Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。