論文の概要: Generative Modelling with Tensor Train approximations of
Hamilton--Jacobi--Bellman equations
- arxiv url: http://arxiv.org/abs/2402.15285v1
- Date: Fri, 23 Feb 2024 12:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 14:42:58.025895
- Title: Generative Modelling with Tensor Train approximations of
Hamilton--Jacobi--Bellman equations
- Title(参考訳): ハミルトン-ヤコビ-ベルマン方程式のテンソルトレイン近似による生成モデル
- Authors: David Sommer, Robert Gruhlke, Max Kirstein, Martin Eigel, Claudia
Schillings
- Abstract要約: 不確実性量子化(UQ)と生成モデル(GM)では、オルンシュタイン-ウベック導出プロセスの対数密度に依存する逆時間拡散プロセスが一般的なサンプリングツールである。
Berner et al. [2022] で著者らは、これらの対数密度は最適制御から知られているテキストHamilton-JacobiBellman (HJB)方程式の解によって得られると指摘している。
このHJB方程式は、通常、ポリシー非依存やニューラルネットワークのようなブラックボックスアーキテクチャの教師なしトレーニングのような間接的手法で扱われるが、代わりに提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sampling from probability densities is a common challenge in fields such as
Uncertainty Quantification (UQ) and Generative Modelling (GM). In GM in
particular, the use of reverse-time diffusion processes depending on the
log-densities of Ornstein-Uhlenbeck forward processes are a popular sampling
tool. In Berner et al. [2022] the authors point out that these log-densities
can be obtained by solution of a \textit{Hamilton-Jacobi-Bellman} (HJB)
equation known from stochastic optimal control. While this HJB equation is
usually treated with indirect methods such as policy iteration and unsupervised
training of black-box architectures like Neural Networks, we propose instead to
solve the HJB equation by direct time integration, using compressed polynomials
represented in the Tensor Train (TT) format for spatial discretization.
Crucially, this method is sample-free, agnostic to normalization constants and
can avoid the curse of dimensionality due to the TT compression. We provide a
complete derivation of the HJB equation's action on Tensor Train polynomials
and demonstrate the performance of the proposed time-step-, rank- and
degree-adaptive integration method on a nonlinear sampling task in 20
dimensions.
- Abstract(参考訳): 確率密度からのサンプリングは、不確実量化(UQ)や生成モデル(GM)といった分野において一般的な課題である。
特にGMでは、Ornstein-Uhlenbeckフォワードプロセスの対数密度に依存する逆時間拡散プロセスの使用が一般的なサンプリングツールである。
バーナーとアルで
2022] 著者らは、これらの対数密度は、確率的最適制御から知られている \textit{Hamilton-Jacobi-Bellman} (HJB) 方程式の解によって得られることを指摘した。
このHJB方程式は通常、ポリシーイテレーションやニューラルネットワークのようなブラックボックスアーキテクチャの教師なしトレーニングのような間接的手法で扱われるが、代わりに、空間離散化のためにテンソルトレイン(TT)形式で表される圧縮多項式を用いて直接時間積分によりHJB方程式を解くことを提案する。
この方法はサンプルフリーであり、正規化定数とは無関係であり、tt圧縮による次元の呪いを避けることができる。
本研究では, テンソルトレイン多項式に対するHJB方程式の作用の完全な導出を行い, 20次元の非線形サンプリングタスクにおける時間ステップ, ランク, 等級適応積分法の性能を示す。
関連論文リスト
- Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Noise-Free Sampling Algorithms via Regularized Wasserstein Proximals [3.4240632942024685]
ポテンシャル関数が支配する分布からサンプリングする問題を考察する。
本研究は, 決定論的な楽譜に基づくMCMC法を提案し, 粒子に対する決定論的進化をもたらす。
論文 参考訳(メタデータ) (2023-08-28T23:51:33Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - No need for a grid: Adaptive fully-flexible gaussians for the
time-dependent Schr\"odinger equation [0.0]
複素ガウス函数の線型結合は、ある空間次元におけるシュル・オーディンガー方程式の解に対する非常に柔軟な表現であることが示されている。
このような波動関数の伝搬のための垂直線法(Rothe法)に基づくスキームを提案する。
これにより、ボルン-オッペンハイマー近似を超えた多原子分子に対する時間依存シュリンガー方程式の正確かつ安価な解法が導かれる。
論文 参考訳(メタデータ) (2022-07-01T08:54:41Z) - Probability flow solution of the Fokker-Planck equation [10.484851004093919]
確率の流れを記述した常微分方程式の統合に基づく代替スキームを導入する。
力学とは異なり、この方程式は決定論的に初期密度からのサンプルを後から溶液のサンプルにプッシュする。
我々のアプローチは、生成モデルのためのスコアベース拡散の最近の進歩に基づいている。
論文 参考訳(メタデータ) (2022-06-09T17:37:09Z) - A blob method method for inhomogeneous diffusion with applications to
multi-agent control and sampling [0.6562256987706128]
重み付き多孔質媒質方程式(WPME)に対する決定論的粒子法を開発し,その収束性を時間間隔で証明する。
提案手法は,マルチエージェントカバレッジアルゴリズムや確率測定のサンプリングに自然に応用できる。
論文 参考訳(メタデータ) (2022-02-25T19:49:05Z) - Sampling Approximately Low-Rank Ising Models: MCMC meets Variational
Methods [35.24886589614034]
一般相互作用が$J$である超キューブ上の二次定値イジングモデルを考える。
我々の一般的な結果は、低ランクのIsingモデルに対する最初のサンプリングアルゴリズムを示唆している。
論文 参考訳(メタデータ) (2022-02-17T21:43:50Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - Bernstein-Greene-Kruskal approach for the quantum Vlasov equation [91.3755431537592]
一次元定常量子ブラソフ方程式は、エネルギーを力学変数の1つとして分析する。
量子トンネル効果が小さい半古典的な場合、無限級数解が開発される。
論文 参考訳(メタデータ) (2021-02-18T20:55:04Z) - The Connection between Discrete- and Continuous-Time Descriptions of
Gaussian Continuous Processes [60.35125735474386]
我々は、一貫した推定子をもたらす離散化が粗粒化下での不変性を持つことを示す。
この結果は、導関数再構成のための微分スキームと局所時間推論アプローチの組み合わせが、2次または高次微分方程式の時系列解析に役立たない理由を説明する。
論文 参考訳(メタデータ) (2021-01-16T17:11:02Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。