論文の概要: Modified Gauss-Newton Algorithms under Noise
- arxiv url: http://arxiv.org/abs/2305.10634v1
- Date: Thu, 18 May 2023 01:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 17:40:42.087964
- Title: Modified Gauss-Newton Algorithms under Noise
- Title(参考訳): 雑音下における改良ガウスニュートンアルゴリズム
- Authors: Krishna Pillutla, Vincent Roulet, Sham Kakade, Zaid Harchaoui
- Abstract要約: Gauss-Newton や proxlinear のアルゴリズムは、大規模な統計的設定における勾配降下と比較して、対照的な結果をもたらす可能性がある。
本稿では, この2種類のアルゴリズムの対比性能を, 統計的手法を用いて理論的に検証し, 構造化予測を含む学習問題について実験的に検討する。
- 参考スコア(独自算出の注目度): 2.0454959820861727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gauss-Newton methods and their stochastic version have been widely used in
machine learning and signal processing. Their nonsmooth counterparts, modified
Gauss-Newton or prox-linear algorithms, can lead to contrasting outcomes when
compared to gradient descent in large-scale statistical settings. We explore
the contrasting performance of these two classes of algorithms in theory on a
stylized statistical example, and experimentally on learning problems including
structured prediction. In theory, we delineate the regime where the quadratic
convergence of the modified Gauss-Newton method is active under statistical
noise. In the experiments, we underline the versatility of stochastic
(sub)-gradient descent to minimize nonsmooth composite objectives.
- Abstract(参考訳): Gauss-Newton法とその確率的バージョンは機械学習や信号処理に広く使われている。
それらの非滑らかなアルゴリズムである修正ガウスニュートンあるいはプロキシ線形アルゴリズムは、大規模統計設定における勾配降下と比較して、対照的な結果をもたらす可能性がある。
これら2つのアルゴリズムの対比性能を定型化された統計例で理論的に検討し,構造化予測を含む学習問題を実験的に検討した。
理論的には、修正ガウス・ニュートン法の二次収束が統計的雑音下で活発である状態について述べる。
実験では,非滑らかな複合目的を最小化するために,確率的 (sub) 勾配降下の汎用性を示す。
関連論文リスト
- Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Bayes-Newton Methods for Approximate Bayesian Inference with PSD
Guarantees [18.419390913544504]
この視点は、数値最適化の枠組みの下で推論アルゴリズムを明示的に採用する。
最適化文献からのニュートン法に対する共通近似は、この「ベイズ・ニュートン」フレームワークの下でも有効であることを示す。
我々の統一的な視点は、様々な推論スキーム間の関係に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-11-02T16:39:29Z) - Adaptive Sampling Quasi-Newton Methods for Zeroth-Order Stochastic
Optimization [1.7513645771137178]
勾配情報のない制約のない最適化問題を考察する。
適応的なサンプリング準ニュートン法を提案し、共通乱数フレームワーク内の有限差を用いてシミュレーション関数の勾配を推定する。
そこで本研究では, 標準試験と内積準ニュートン試験の修正版を開発し, 近似に使用する試料サイズを制御し, 最適解の近傍に大域収束結果を与える。
論文 参考訳(メタデータ) (2021-09-24T21:49:25Z) - SMG: A Shuffling Gradient-Based Method with Momentum [25.389545522794172]
機械学習の最適化に広く使われている2つの先進的なアイデアを組み合わせる。
我々はシャッフルに基づく新しいモーメント技術を開発した。
私たちのテストでは、新しいアルゴリズムの性能が向上しました。
論文 参考訳(メタデータ) (2020-11-24T04:12:35Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - Disentangling the Gauss-Newton Method and Approximate Inference for
Neural Networks [96.87076679064499]
我々は一般化されたガウスニュートンを解き、ベイズ深層学習の近似推論を行う。
ガウス・ニュートン法は基礎となる確率モデルを大幅に単純化する。
ガウス過程への接続は、新しい関数空間推論アルゴリズムを可能にする。
論文 参考訳(メタデータ) (2020-07-21T17:42:58Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z) - Deep Neural Network Learning with Second-Order Optimizers -- a Practical
Study with a Stochastic Quasi-Gauss-Newton Method [0.0]
本稿では,準ニュートン法,ガウスニュートン法,分散還元法を併用した2次準ニュートン最適化法を提案する。
ベンチマークによるSQGNの実装について検討し、その収束性と計算性能を選択された一階法と比較する。
論文 参考訳(メタデータ) (2020-04-06T23:41:41Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。