論文の概要: Stochastic Learning for Sparse Discrete Markov Random Fields with
Controlled Gradient Approximation Error
- arxiv url: http://arxiv.org/abs/2005.06083v1
- Date: Tue, 12 May 2020 22:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:33:50.439926
- Title: Stochastic Learning for Sparse Discrete Markov Random Fields with
Controlled Gradient Approximation Error
- Title(参考訳): 勾配近似誤差制御による離散離散マルコフ確率場に対する確率学習
- Authors: Sinong Geng, Zhaobin Kuang, Jie Liu, Stephen Wright, David Page
- Abstract要約: 離散マルコフ確率場(MRF)に対する$L_$正規化極大推定器(MLE)問題について検討する。
これらの課題に対処するために、近位勾配(SPG)と呼ばれる検証可能な学習フレームワークを検討する。
勾配近似の品質を検査し、制御するための新しい検証可能な境界を提供する。
- 参考スコア(独自算出の注目度): 10.381976180143328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the $L_1$-regularized maximum likelihood estimator/estimation (MLE)
problem for discrete Markov random fields (MRFs), where efficient and scalable
learning requires both sparse regularization and approximate inference. To
address these challenges, we consider a stochastic learning framework called
stochastic proximal gradient (SPG; Honorio 2012a, Atchade et al.
2014,Miasojedow and Rejchel 2016). SPG is an inexact proximal gradient
algorithm [Schmidtet al., 2011], whose inexactness stems from the stochastic
oracle (Gibbs sampling) for gradient approximation - exact gradient evaluation
is infeasible in general due to the NP-hard inference problem for discrete MRFs
[Koller and Friedman, 2009]. Theoretically, we provide novel verifiable bounds
to inspect and control the quality of gradient approximation. Empirically, we
propose the tighten asymptotically (TAY) learning strategy based on the
verifiable bounds to boost the performance of SPG.
- Abstract(参考訳): 離散マルコフ確率場 (mrfs) におけるl_1$-レギュラライズ最大度推定/推定問題(mle)について検討し, 効率的かつスケーラブルな学習にはスパース正規化と近似推論の両方が必要であることを示した。
これらの課題に対処するために,確率的近位勾配(spg; honorio 2012a, atchade et al. 2014,miasojedow and rejchel 2016)と呼ばれる確率的学習フレームワークを検討する。
spgは、勾配近似のための確率的オラクル(ギブズサンプリング)に由来する、非エクササイズな近位勾配アルゴリズム [schmidtet al., 2011] である。 正確な勾配評価は、離散型mrfs [koller and friedman, 2009] のnp-hard推論問題のために一般には実現不可能である。
理論的には、勾配近似の質を検査し制御するための新しい検証可能な境界を提供する。
実験的に,SPGの性能を高めるために,検証可能な境界に基づく漸近学習戦略(TAY)を提案する。
関連論文リスト
- Distributionally Robust Optimization with Bias and Variance Reduction [9.341215359733601]
勾配に基づくアルゴリズムであるProspectは、スムーズな正規化損失に対する線形収束を享受していることを示す。
また、勾配法のようなベースラインよりも2~3$times$早く収束できることも示している。
論文 参考訳(メタデータ) (2023-10-21T00:03:54Z) - Robust Stochastic Optimization via Gradient Quantile Clipping [6.2844649973308835]
グラディエントDescent(SGD)のための量子クリッピング戦略を導入する。
通常のクリッピングチェーンとして、グラデーション・ニュー・アウトリージを使用します。
本稿では,Huberiles を用いたアルゴリズムの実装を提案する。
論文 参考訳(メタデータ) (2023-09-29T15:24:48Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - High-probability Bounds for Non-Convex Stochastic Optimization with
Heavy Tails [55.561406656549686]
我々は、勾配推定が末尾を持つ可能性のある一階アルゴリズムを用いたヒルベルト非最適化を考える。
本研究では, 勾配, 運動量, 正規化勾配勾配の収束を高確率臨界点に収束させることと, 円滑な損失に対する最もよく知られた繰り返しを示す。
論文 参考訳(メタデータ) (2021-06-28T00:17:01Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Non-asymptotic bounds for stochastic optimization with biased noisy
gradient oracles [8.655294504286635]
関数の測定値が推定誤差を持つ設定を捉えるために,バイアス付き勾配オラクルを導入する。
提案するオラクルは,例えば,独立分散シミュレーションと同一分散シミュレーションのバッチによるリスク計測推定の実践的な状況にある。
論文 参考訳(メタデータ) (2020-02-26T12:53:04Z) - Stochastic Approximate Gradient Descent via the Langevin Algorithm [11.36635610546803]
本研究では,不偏勾配が自明に得られない場合の勾配勾配の代替として,近似勾配勾配(SAGD)を導入する。
SAGDは,予測最大化アルゴリズムや変分オートエンコーダといった,一般的な統計的および機械学習問題において,実験的によく機能することを示す。
論文 参考訳(メタデータ) (2020-02-13T14:29:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。