論文の概要: From continuous-time formulations to discretization schemes: tensor
trains and robust regression for BSDEs and parabolic PDEs
- arxiv url: http://arxiv.org/abs/2307.15496v1
- Date: Fri, 28 Jul 2023 11:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 12:45:30.992045
- Title: From continuous-time formulations to discretization schemes: tensor
trains and robust regression for BSDEs and parabolic PDEs
- Title(参考訳): 連続時間定式化から離散化スキーム:BSDEと放物型PDEのテンソルトレインとロバスト回帰
- Authors: Lorenz Richter, Leon Sallandt, Nikolas N\"usken
- Abstract要約: テンソルトレインは放物型PDEの魅力ある枠組みであると主張する。
計算効率と頑健性の点で異なる反復型スキームを開発する。
本手法が精度と計算効率のトレードオフを良好に達成できることを理論的および数値的に実証する。
- 参考スコア(独自算出の注目度): 3.785123406103385
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The numerical approximation of partial differential equations (PDEs) poses
formidable challenges in high dimensions since classical grid-based methods
suffer from the so-called curse of dimensionality. Recent attempts rely on a
combination of Monte Carlo methods and variational formulations, using neural
networks for function approximation. Extending previous work (Richter et al.,
2021), we argue that tensor trains provide an appealing framework for parabolic
PDEs: The combination of reformulations in terms of backward stochastic
differential equations and regression-type methods holds the promise of
leveraging latent low-rank structures, enabling both compression and efficient
computation. Emphasizing a continuous-time viewpoint, we develop iterative
schemes, which differ in terms of computational efficiency and robustness. We
demonstrate both theoretically and numerically that our methods can achieve a
favorable trade-off between accuracy and computational efficiency. While
previous methods have been either accurate or fast, we have identified a novel
numerical strategy that can often combine both of these aspects.
- Abstract(参考訳): 偏微分方程式(PDE)の数値近似は、古典的格子法がいわゆる次元性の呪いに苦しむため、高次元において重大な問題を引き起こす。
近年の試みは、関数近似にニューラルネットワークを用いるモンテカルロ法と変分定式化の組み合わせに依存している。
先行研究(richter et al., 2021)を拡張して、テンソルトレインは放物型pdesの魅力ある枠組みを提供していると論じている: 逆確率微分方程式と回帰型手法による再構成の組み合わせは、潜在低ランク構造の活用を約束し、圧縮と効率的な計算を可能にしている。
連続時間視点を重視し,計算効率とロバスト性の観点から異なる反復スキームを開発した。
本手法が精度と計算効率のトレードオフを良好に達成できることを理論的および数値的に実証する。
従来の手法は正確か高速かのどちらかであったが,これら2つの側面を組み合わせることが可能な,新しい数値戦略を見出した。
関連論文リスト
- Tensor-Valued Time and Inference Path Optimization in Differential Equation-Based Generative Modeling [16.874769609089764]
この研究は、従来のスカラー値の時間を複数の次元に拡張するテンソル値の時間を導入している。
また,多次元推論軌道を適応的に決定する新しい経路最適化問題を提案する。
論文 参考訳(メタデータ) (2024-04-22T13:20:01Z) - Sequential-in-time training of nonlinear parametrizations for solving time-dependent partial differential equations [21.992668884092055]
この研究は、シーケンシャル・イン・タイムのトレーニング手法がOtD(Optimized-then-Discretize)またはDtO(disretize-then-Optimize)スキームとして広く理解可能であることを示している。
論文 参考訳(メタデータ) (2024-04-01T14:45:16Z) - Amortized Reparametrization: Efficient and Scalable Variational
Inference for Latent SDEs [3.2634122554914002]
本稿では,データ量,時系列の総長さ,近似微分方程式の剛性と独立にスケールする時間とメモリコストで潜在微分方程式を推定する問題を考察する。
これは、メモリコストが一定であるにもかかわらず、近似微分方程式の剛性に大きく依存する時間複雑性を持つ遅延微分方程式を推論する典型的な方法とは対照的である。
論文 参考訳(メタデータ) (2023-12-16T22:27:36Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Robust SDE-Based Variational Formulations for Solving Linear PDEs via
Deep Learning [6.1678491628787455]
モンテカルロ法とディープラーニングを組み合わせることで、高次元の偏微分方程式(PDE)を解くアルゴリズムが効率的になった。
関連する学習問題は、しばしば関連する微分方程式(SDE)に基づく変分定式化として記述される。
したがって、収束を正確にかつ迅速に到達するためには、低分散を示す適切な勾配推定器に頼ることが重要である。
論文 参考訳(メタデータ) (2022-06-21T17:59:39Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Solving high-dimensional parabolic PDEs using the tensor train format [1.1470070927586016]
テンソル列車はパラボリックPDEに魅力的な近似フレームワークを提供すると主張している。
明示的かつ速く,暗黙的に,正確な更新を含む,新しい反復的スキームを開発します。
論文 参考訳(メタデータ) (2021-02-23T18:04:00Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Reintroducing Straight-Through Estimators as Principled Methods for
Stochastic Binary Networks [85.94999581306827]
2重みとアクティベーションを持つニューラルネットワークのトレーニングは、勾配の欠如と離散重みよりも最適化が難しいため、難しい問題である。
多くの実験結果が経験的ストレートスルー(ST)アプローチで達成されている。
同時に、ST法はベルヌーイ重みを持つバイナリネットワーク(SBN)モデルにおける推定子として真に導出することができる。
論文 参考訳(メタデータ) (2020-06-11T23:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。