論文の概要: Learning efficient and provably convergent splitting methods
- arxiv url: http://arxiv.org/abs/2411.09444v1
- Date: Thu, 14 Nov 2024 13:45:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:23:20.754767
- Title: Learning efficient and provably convergent splitting methods
- Title(参考訳): 効率的かつ確実な収束分割法を学習する
- Authors: L. M. Kreusser, H. E. Lockyer, E. H. Müller, P. Singh,
- Abstract要約: 本研究では,機械学習による分割手法の探索を行うフレームワークを提案する。
学習手法は, 時間ステップサイズを総合的に構成することで, Schr"odinger 方程式の確立した方法よりもはるかに効率的であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Splitting methods are widely used for solving initial value problems (IVPs) due to their ability to simplify complicated evolutions into more manageable subproblems which can be solved efficiently and accurately. Traditionally, these methods are derived using analytic and algebraic techniques from numerical analysis, including truncated Taylor series and their Lie algebraic analogue, the Baker--Campbell--Hausdorff formula. These tools enable the development of high-order numerical methods that provide exceptional accuracy for small timesteps. Moreover, these methods often (nearly) conserve important physical invariants, such as mass, unitarity, and energy. However, in many practical applications the computational resources are limited. Thus, it is crucial to identify methods that achieve the best accuracy within a fixed computational budget, which might require taking relatively large timesteps. In this regime, high-order methods derived with traditional methods often exhibit large errors since they are only designed to be asymptotically optimal. Machine Learning techniques offer a potential solution since they can be trained to efficiently solve a given IVP with less computational resources. However, they are often purely data-driven, come with limited convergence guarantees in the small-timestep regime and do not necessarily conserve physical invariants. In this work, we propose a framework for finding machine learned splitting methods that are computationally efficient for large timesteps and have provable convergence and conservation guarantees in the small-timestep limit. We demonstrate numerically that the learned methods, which by construction converge quadratically in the timestep size, can be significantly more efficient than established methods for the Schr\"{o}dinger equation if the computational budget is limited.
- Abstract(参考訳): 分割法は、複雑な進化を効率的に正確に解けるより管理可能なサブプロブレムへと単純化する能力により、初期値問題(IVP)の解決に広く用いられている。
伝統的に、これらの手法はテイラー級数とそのリー代数アナログであるベーカー-カンプベル-ハウスドルフの公式を含む解析的および代数的手法を用いて導出される。
これらのツールは、小さな時間ステップに対して例外的な精度を提供する高次数値法の開発を可能にする。
さらに、これらの方法はしばしば質量、ユニタリティ、エネルギーといった重要な物理的不変量を保存する。
しかし、多くの実用的な応用において、計算資源は限られている。
したがって、固定された計算予算内で最高の精度を達成する方法を特定することが不可欠であり、これは比較的大きな時間を要する可能性がある。
この体制では、従来の手法から導出された高階法は、漸近的に最適であるように設計されているだけであるため、大きな誤差を生じることが多い。
機械学習技術は、与えられたIPPを少ない計算リソースで効率的に解けるように訓練できるので、潜在的な解決策を提供する。
しかし、それらは純粋にデータ駆動であり、小さな段階の体制において限定的な収束を保証することができ、必ずしも物理的不変量を保存するとは限らない。
本研究では,大規模な時間ステップに対して計算効率が高く,最小時間制限下での収束と保全の保証が保証できる機械学習分割手法を見つけるためのフレームワークを提案する。
計算予算が制限された場合のSchr\"{o}dinger方程式の定式化よりも, 時間ステップサイズを2次収束させることで, 学習手法の効率が著しく向上できることを数値的に示す。
関連論文リスト
- Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - A Novel Sequential Coreset Method for Gradient Descent Algorithms [21.40879052693993]
Coresetは、これまで広く研究されてきた一般的なデータ圧縮技術である。
擬似次元と全感度境界を効果的に回避する「逐次コアセット」と呼ばれる新しいフレームワークを提案する。
本手法は, コアセットサイズをさらに小さくすることで, 次元に依存した多対数しか持たない場合のスパース最適化に特に適している。
論文 参考訳(メタデータ) (2021-12-05T08:12:16Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z) - Progressive Batching for Efficient Non-linear Least Squares [31.082253632197023]
ガウス・ニュートンの基本的な改良のほとんどは、基礎となる問題構造の空間性を保証するか、あるいは活用して計算速度を上げることである。
我々の研究は、機械学習と統計の両方からアイデアを借用し、収束を保証するとともに、必要な計算量を大幅に削減する非線形最小二乗に対するアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-21T13:00:04Z) - Second-order Neural Network Training Using Complex-step Directional
Derivative [41.4333906662624]
本稿では,2次ニューラルネットワークトレーニングのための数値アルゴリズムを提案する。
複素ステップ有限差分を用いてヘッセン計算の実践的障害に取り組む。
提案手法は,ディープラーニングと数値最適化のための新しいアルゴリズムを広範囲に導入すると考えられる。
論文 参考訳(メタデータ) (2020-09-15T13:46:57Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z) - GP3: A Sampling-based Analysis Framework for Gaussian Processes [8.40947366840848]
本稿では,既存の問題の多くを効率的に解けるGP3という新しいフレームワークを提案する。
計算は完全に並列化可能であるので、GPU処理の計算上の利点を多分解能サンプリングと組み合わせて利用することができる。
論文 参考訳(メタデータ) (2020-06-14T11:32:44Z) - Statistically Guided Divide-and-Conquer for Sparse Factorization of
Large Matrix [2.345015036605934]
統計的問題をスパース係数回帰として定式化し、分割コンカレントアプローチでそれに取り組む。
第1段階分割では、タスクを1組の同時並列推定(CURE)問題に単純化するための2つの潜時並列アプローチについて検討する。
第2段階分割では、CUREの全解を効率的に追跡するために、一連の単純な増分経路からなる段階学習手法を革新する。
論文 参考訳(メタデータ) (2020-03-17T19:12:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。