論文の概要: Fenrir: Physics-Enhanced Regression for Initial Value Problems
- arxiv url: http://arxiv.org/abs/2202.01287v1
- Date: Wed, 2 Feb 2022 21:22:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 13:28:06.088542
- Title: Fenrir: Physics-Enhanced Regression for Initial Value Problems
- Title(参考訳): Fenrir: 初期値問題に対する物理強化回帰
- Authors: Filip Tronarp, Nathanael Bosch, Philipp Hennig
- Abstract要約: 確率数値を用いて初期値問題をガウス-マルコフ過程に変換する方法を示す。
提案手法は競合する手法よりも適度か適度に優れていることを示す。
- 参考スコア(独自算出の注目度): 31.411889245022714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show how probabilistic numerics can be used to convert an initial value
problem into a Gauss--Markov process parametrised by the dynamics of the
initial value problem. Consequently, the often difficult problem of parameter
estimation in ordinary differential equations is reduced to hyperparameter
estimation in Gauss--Markov regression, which tends to be considerably easier.
The method's relation and benefits in comparison to classical numerical
integration and gradient matching approaches is elucidated. In particular, the
method can, in contrast to gradient matching, handle partial observations, and
has certain routes for escaping local optima not available to classical
numerical integration. Experimental results demonstrate that the method is on
par or moderately better than competing approaches.
- Abstract(参考訳): 確率的数値は初期値問題からガウス-マルコフ過程への変換にどのように用いられるかを示し、通常の微分方程式におけるパラメータ推定の難しい問題はガウス-マルコフ回帰のハイパーパラメータ推定に還元されるが、これはかなり容易である。
古典的数値積分法や勾配マッチング法と比較して, 手法の関係と利点を解明する。
特に、勾配マッチングとは対照的に、この手法は部分的観測を処理し、古典的数値積分では利用できない局所的オプティマから逃れる特定の経路を持つ。
実験の結果,本手法は競合するアプローチと同等か中程度に優れていることがわかった。
関連論文リスト
- Estimating unknown parameters in differential equations with a reinforcement learning based PSO method [2.9808905403445145]
本稿では,粒子の概念を導入することにより,微分方程式のパラメータ推定問題を最適化問題として再検討する。
本稿では、強化学習に基づく粒子群最適化(RLLPSO)に基づいて、微分方程式の未知パラメータを推定する新しい手法DERLPSOを提案する。
実験の結果,DERLPSOは平均1.13e-05の誤差を達成し,他の手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-11-13T14:40:51Z) - Gradient-based bilevel optimization for multi-penalty Ridge regression
through matrix differential calculus [0.46040036610482665]
我々は,l2-正則化を用いた線形回帰問題に対する勾配に基づくアプローチを導入する。
提案手法はLASSO, Ridge, Elastic Netレグレッションよりも優れていることを示す。
勾配の解析は、自動微分と比較して計算時間の観点からより効率的であることが証明されている。
論文 参考訳(メタデータ) (2023-11-23T20:03:51Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Noise Estimation in Gaussian Process Regression [1.5002438468152661]
提案手法は, 相関誤差の分散と雑音の分散を, 限界確率関数の最大化に基づいて推定することができる。
従来のパラメータ最適化と比較して,提案手法の計算上の利点とロバスト性を示す。
論文 参考訳(メタデータ) (2022-06-20T19:36:03Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Tighter Bounds on the Log Marginal Likelihood of Gaussian Process
Regression Using Conjugate Gradients [19.772149500352945]
下界の最大化によるモデルパラメータの近似的最大度学習は、スパース変分アプローチの利点の多くを保っていることを示す。
実験では、他の共役グラデーションベースのアプローチと比較して、トレーニング時間の同等の量のためのモデルで予測性能の改善を示します。
論文 参考訳(メタデータ) (2021-02-16T17:54:59Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - On the Iteration Complexity of Hypergradient Computation [38.409444179509705]
機械学習では、上層目標(過度)の勾配は、正確に計算するのは難しいか、あるいは不可能である。
逆モード反復微分と近似的暗黙的微分に基づく過次微分を計算するための一般的なアプローチについて検討する。
この分析は, 共役勾配に基づく近似的暗黙差を最良とする, 上記の手法の計算効率の階層性を示す。
論文 参考訳(メタデータ) (2020-06-29T17:32:47Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。