論文の概要: DRM Revisited: A Complete Error Analysis
- arxiv url: http://arxiv.org/abs/2407.09032v1
- Date: Fri, 12 Jul 2024 06:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 00:26:50.029138
- Title: DRM Revisited: A Complete Error Analysis
- Title(参考訳): DRMの再検討:完全なエラー分析
- Authors: Yuling Jiao, Ruoxuan Li, Peiying Wu, Jerry Zhijian Yang, Pingwen Zhang,
- Abstract要約: 目標精度を考慮すれば,適切なトレーニングサンプル数を決定するには,どうすればよいのか?
勾配降下過程の出力は、基礎となる偏微分方程式の真の解を特定の精度に近似するだろうか?
- 参考スコア(独自算出の注目度): 4.648677931378919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we address a foundational question in the theoretical analysis of the Deep Ritz Method (DRM) under the over-parameteriztion regime: Given a target precision level, how can one determine the appropriate number of training samples, the key architectural parameters of the neural networks, the step size for the projected gradient descent optimization procedure, and the requisite number of iterations, such that the output of the gradient descent process closely approximates the true solution of the underlying partial differential equation to the specified precision?
- Abstract(参考訳): 目標精度レベルが与えられた場合、トレーニングサンプルの適切な数、ニューラルネットワークの鍵となるアーキテクチャパラメータ、投影された勾配勾配最適化手順のステップサイズ、反復の必要回数をどうやって決定できるか。
関連論文リスト
- Eliminating Ratio Bias for Gradient-based Simulated Parameter Estimation [0.7673339435080445]
本稿では、可能性関数が解析的に利用できないモデルにおけるパラメータキャリブレーションの課題に対処する。
本稿では,最大推定と後続密度推定の両問題において,比バイアスの問題に対処するマルチタイムスケールを応用した勾配に基づくシミュレーションパラメータ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-20T02:46:15Z) - Hyperparameter tuning via trajectory predictions: Stochastic prox-linear
methods in matrix sensing [6.446062819763263]
ノイズにより劣化したランク1ガウス測度から未知のランク1行列を復元する問題を分析する。
我々は,この手法の正確な誤差を予測する決定論的再帰を導出する。
非漸近的なフレームワークを使用することで、これはどんなバッチサイズでも、幅広いステップサイズにも当てはまります。
論文 参考訳(メタデータ) (2024-02-02T17:55:12Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Adaptive importance sampling for Deep Ritz [7.123920027048777]
偏微分方程式(PDE)の解法を目的としたディープリッツ法の適応サンプリング法を提案する。
1つのネットワークはPDEの解を近似するために使用され、もう1つはトレーニングセットを洗練させるために新しいコロケーションポイントを生成するために使用される深層生成モデルである。
従来のDeep Ritz法と比較して、特に低正規性と高次元性で特徴づけられる問題に対して、提案手法は精度を向上する。
論文 参考訳(メタデータ) (2023-10-26T06:35:08Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Exploring the Optimized Value of Each Hyperparameter in Various Gradient
Descent Algorithms [0.0]
勾配降下アルゴリズムは、高い精度または低い誤差の深層学習モデルのパラメータ最適化に応用されている。
本研究では,各対象関数の平均誤差を,様々な勾配降下アルゴリズムに基づいて解析するフレームワークを提案する。
実験の結果,提案手法により高効率収束と低誤差が得られることがわかった。
論文 参考訳(メタデータ) (2022-12-23T12:04:33Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Variance Reduction for Deep Q-Learning using Stochastic Recursive
Gradient [51.880464915253924]
深層Q-ラーニングアルゴリズムは、過度な分散を伴う勾配推定に苦しむことが多い。
本稿では、SRG-DQNと呼ばれる新しいアルゴリズムを実現するため、深層Q-ラーニングにおける勾配推定を更新するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-25T00:54:20Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Theoretical Interpretation of Learned Step Size in Deep-Unfolded
Gradient Descent [20.50873301895484]
深部展開勾配降下(DUGD)の学習ステップサイズに関する理論的解釈を提供する。
スペクトル半径の上限を最小化することは、チェビシェフのステップの列であるチェビシェフのステップに繋がることを示す。
また、チェビシェフステップは、パラメータや運動量項を学習することなく、一階法の収束率の低い境界を特定の極限で達成することを示す。
論文 参考訳(メタデータ) (2020-01-15T05:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。