論文の概要: Towards Scalable and Stable Parallelization of Nonlinear RNNs
- arxiv url: http://arxiv.org/abs/2407.19115v3
- Date: Wed, 15 Jan 2025 19:18:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 18:31:22.951149
- Title: Towards Scalable and Stable Parallelization of Nonlinear RNNs
- Title(参考訳): 非線形RNNのスケーラブルで安定な並列化に向けて
- Authors: Xavier Gonzalez, Andrew Warrington, Jimmy T. H. Smith, Scott W. Linderman,
- Abstract要約: そこで我々は, 非線形RNNを並列に評価するDEERという手法を開発した。
準ニュートン近似を適用し、それらをニュートンに可逆収束させ、メモリを少なくし、より高速であることを示す。
これらの革新は、より大規模でより安定な非線形RNNの並列評価を可能にする。
- 参考スコア(独自算出の注目度): 13.705742451466225
- License:
- Abstract: Transformers and linear state space models can be evaluated in parallel on modern hardware, but evaluating nonlinear RNNs appears to be an inherently sequential problem. Recently, however, Lim et al. '24 developed an approach called DEER, which evaluates nonlinear RNNs in parallel by posing the states as the solution to a fixed-point problem. They derived a parallel form of Newton's method to solve the fixed-point problem and achieved significant speedups over sequential evaluation. However, the computational complexity of DEER is cubic in the state size, and the algorithm can suffer from numerical instability. We address these limitations with two novel contributions. To reduce the computational complexity, we apply quasi-Newton approximations and show they converge comparably to Newton, use less memory, and are faster. To stabilize DEER, we leverage a connection between the Levenberg-Marquardt algorithm and Kalman smoothing, which we call ELK. This connection allows us to stabilize Newton's method while using efficient parallelized Kalman smoothing algorithms to retain performance. Through several experiments, we show that these innovations allow for parallel evaluation of nonlinear RNNs at larger scales and with greater stability.
- Abstract(参考訳): 変換器と線形状態空間モデルは、現代のハードウェア上で並列に評価できるが、非線形RNNを評価することは本質的にシーケンシャルな問題である。
しかし、最近、LimらによってDEERと呼ばれる手法が開発され、固定点問題に対する解として状態に反応することで非線形RNNを並列に評価する。
彼らは、固定点問題を解くためにニュートンの手法の並列形式を導出し、逐次評価よりもかなりのスピードアップを達成した。
しかし、DEERの計算複雑性は状態サイズの3乗であり、アルゴリズムは数値的な不安定さに悩まされる可能性がある。
これらの制限を2つの新しいコントリビューションで解決する。
計算複雑性を低減するため、準ニュートン近似を適用し、ニュートンに可逆収束し、メモリ使用量が少なく、より高速であることを示す。
DEERを安定化させるためには、Levenberg-MarquardtアルゴリズムとKalman smoothing(ELK)の接続を利用する。
この接続により、効率の良い並列化カルマン平滑化アルゴリズムを用いて性能を保ちながらニュートン法を安定させることができる。
いくつかの実験を通して、これらの革新により、より大規模でより安定な非線形RNNの並列評価が可能であることが示されている。
関連論文リスト
- Online Learning Guided Quasi-Newton Methods with Global Non-Asymptotic Convergence [20.766358513158206]
双対性ギャップの観点から、大域収束率を$O(min1/k,sqrtd/k1.25)$とする。
これらの結果は、外勾配法よりも準ニュートン法の証明可能な利点を示す最初の大域収束結果である。
論文 参考訳(メタデータ) (2024-10-03T16:08:16Z) - A fast neural hybrid Newton solver adapted to implicit methods for nonlinear dynamics [6.642649934130245]
本稿では,厳密な時間進化非線形方程式に対する非線形時間ステップシステムのこの解を高速化するための,ニュートン法に基づく新しい演算子学習法を提案する。
ニュートン法における量的改善率を示し、教師なし学習戦略の一般化誤差の上限を解析する。
論文 参考訳(メタデータ) (2024-07-04T14:02:10Z) - Incremental Quasi-Newton Methods with Faster Superlinear Convergence
Rates [50.36933471975506]
各成分関数が強く凸であり、リプシッツ連続勾配とヘシアンを持つ有限和最適化問題を考える。
最近提案されたインクリメンタル準ニュートン法は、BFGSの更新に基づいて、局所的な超線形収束率を達成する。
本稿では、対称ランク1更新をインクリメンタルフレームワークに組み込むことにより、より効率的な準ニュートン法を提案する。
論文 参考訳(メタデータ) (2024-02-04T05:54:51Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Second-order optimization with lazy Hessians [55.51077907483634]
一般の非線形最適化問題を解くためにニュートンの遅延ヘッセン更新を解析する。
我々は、メソッドの各ステップで新しい勾配を計算しながら、これまで見られたヘッセン反復を再利用する。
論文 参考訳(メタデータ) (2022-12-01T18:58:26Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - Newton methods based convolution neural networks using parallel
processing [3.9220281834178463]
畳み込みニューラルネットワークの訓練は高次元かつ非パラメトリック最適化問題である。
畳み込みニューラルネットワークのニュートン法は、サブサンプルのヘッセンニュートン法を用いてこれを扱う。
ミニバッチ計算ではシリアル処理の代わりに並列処理を用いてきた。
論文 参考訳(メタデータ) (2021-12-02T16:42:27Z) - Newton-LESS: Sparsification without Trade-offs for the Sketched Newton
Update [88.73437209862891]
2階最適化において、潜在的なボトルネックは繰り返しごとに最適化関数のヘシアン行列を計算することである。
本稿では,ガウススケッチ行列を劇的に分散させることにより,スケッチの計算コストを大幅に削減できることを示す。
ニュートン=ルネッサはガウス埋め込みとほぼ同じ問題に依存しない局所収束率を享受していることを証明した。
論文 参考訳(メタデータ) (2021-07-15T17:33:05Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。