論文の概要: DeepParticle: learning invariant measure by a deep neural network
minimizing Wasserstein distance on data generated from an interacting
particle method
- arxiv url: http://arxiv.org/abs/2111.01356v1
- Date: Tue, 2 Nov 2021 03:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 21:18:35.664496
- Title: DeepParticle: learning invariant measure by a deep neural network
minimizing Wasserstein distance on data generated from an interacting
particle method
- Title(参考訳): DeepParticle: 相互作用粒子法によるワッサースタイン距離を最小化するディープニューラルネットワークによる学習不変測度
- Authors: Zhongjian Wang, Jack Xin, Zhiwen Zhang
- Abstract要約: 本稿では,力学系の不変測度を学習・生成するDeepParticle法を提案する。
我々は、与えられた入力(ソース)分布から任意のターゲット分布へのサンプルの変換を表現するために、ニューラルネットワーク(DNN)を使用する。
トレーニングでは、入力と対象サンプル間の離散的なワッサースタイン距離を最小限に抑えるために、ネットワーク重みを更新する。
- 参考スコア(独自算出の注目度): 3.6310242206800667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the so called DeepParticle method to learn and generate
invariant measures of stochastic dynamical systems with physical parameters
based on data computed from an interacting particle method (IPM). We utilize
the expressiveness of deep neural networks (DNNs) to represent the transform of
samples from a given input (source) distribution to an arbitrary target
distribution, neither assuming distribution functions in closed form nor a
finite state space for the samples. In training, we update the network weights
to minimize a discrete Wasserstein distance between the input and target
samples. To reduce computational cost, we propose an iterative
divide-and-conquer (a mini-batch interior point) algorithm, to find the optimal
transition matrix in the Wasserstein distance. We present numerical results to
demonstrate the performance of our method for accelerating IPM computation of
invariant measures of stochastic dynamical systems arising in computing
reaction-diffusion front speeds through chaotic flows. The physical parameter
is a large Pecl\'et number reflecting the advection dominated regime of our
interest.
- Abstract(参考訳): 本稿では,相互作用粒子法(ipm)から計算されたデータに基づいて物理パラメータを持つ確率力学系の不変測度を学習し生成する,いわゆるdeepparticle法を提案する。
本研究では, 深層ニューラルネットワーク(DNN)の表現性を利用して, 与えられた入力(ソース)分布から任意のターゲット分布への変換を表現する。
トレーニングでは、入力とターゲットサンプル間の離散的なワッサースタイン距離を最小化するためにネットワーク重みを更新。
計算コストを削減するために,wasserstein距離における最適遷移行列を求めるために,逐次分割・分割(ミニバッチ内点)アルゴリズムを提案する。
本研究では, カオス流による反応拡散前線速度の計算において発生する確率力学系の不変測度の ipm 計算を高速化する手法の性能を示す。
物理パラメータは大きなペクレット数であり、我々の関心のアドベクション支配体制を反映している。
関連論文リスト
- DynGMA: a robust approach for learning stochastic differential equations
from data [16.37145148171519]
パラメータ化されたSDEの遷移密度に新しい近似を導入する。
本手法は, 完全に未知のドリフト拡散関数の学習において, ベースライン法と比較して精度が高い。
低時間解像度と可変、さらには制御不能な時間ステップサイズでデータを処理できる。
論文 参考訳(メタデータ) (2024-02-22T12:09:52Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic
Representation [62.017505017414564]
教師なしの方法でニューラルソルバを訓練することが不可欠である。
既存の手法は妥当な精度を達成し、重要な計算課題と不正確なシミュレーションをもたらす。
PDEの確率的表現を用いて教師なしニューラルソルバを訓練するためのモンテカルロPDEソルバを提案する。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - A DeepParticle method for learning and generating aggregation patterns
in multi-dimensional Keller-Segel chemotaxis systems [3.6184545598911724]
ケラー・セガル (KS) ケモタキシー系の2次元および3次元における凝集パターンと近傍特異解の正則化相互作用粒子法について検討した。
さらに,物理パラメータの異なる解を学習し,生成するためのDeepParticle (DP) 法を開発した。
論文 参考訳(メタデータ) (2022-08-31T20:52:01Z) - Estimating permeability of 3D micro-CT images by physics-informed CNNs
based on DNS [1.6274397329511197]
本稿では,地質岩のマイクロCTによる透水率予測手法を提案する。
透過性予測専用のCNNのためのトレーニングデータセットは、古典格子ボルツマン法(LBM)によって通常生成される透過性ラベルからなる。
その代わりに、定常ストークス方程式を効率的かつ分散並列に解き、直接数値シミュレーション(DNS)を行う。
論文 参考訳(メタデータ) (2021-09-04T08:43:19Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - Particles to Partial Differential Equations Parsimoniously [0.0]
粗粒の有効部分微分方程式は、予測や制御のような計算集約的なタスクにかなりの節約をもたらす可能性がある。
本稿では,ニューラルネットワークとマルチスケール計算を組み合わせる枠組みを,方程式自由数値の形で提案する。
素粒子シミュレーションから大まかな粒度進化方程式を抽出し, 未知のマクロスケール変数を用いた手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T15:51:24Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。