論文の概要: An efficient Wasserstein-distance approach for reconstructing jump-diffusion processes using parameterized neural networks
- arxiv url: http://arxiv.org/abs/2406.01653v1
- Date: Mon, 3 Jun 2024 16:26:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 21:21:41.821859
- Title: An efficient Wasserstein-distance approach for reconstructing jump-diffusion processes using parameterized neural networks
- Title(参考訳): パラメタライズドニューラルネットワークを用いたジャンプ拡散過程の再構築のための効率的なワッサースタイン距離法
- Authors: Mingtao Xia, Xiangting Li, Qijing Shen, Tom Chou,
- Abstract要約: 2つの多次元ジャンプ拡散過程に関連する2つの確率分布間のワッサーシュタイン距離(W$-distance)を解析する。
本稿では,パラメータ化ニューラルネットワークを用いたデータから未知のジャンプ拡散過程を効率的に再構築するための,時間的に分離された2乗法W$-distance法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze the Wasserstein distance ($W$-distance) between two probability distributions associated with two multidimensional jump-diffusion processes. Specifically, we analyze a temporally decoupled squared $W_2$-distance, which provides both upper and lower bounds associated with the discrepancies in the drift, diffusion, and jump amplitude functions between the two jump-diffusion processes. Then, we propose a temporally decoupled squared $W_2$-distance method for efficiently reconstructing unknown jump-diffusion processes from data using parameterized neural networks. We further show its performance can be enhanced by utilizing prior information on the drift function of the jump-diffusion process. The effectiveness of our proposed reconstruction method is demonstrated across several examples and applications.
- Abstract(参考訳): 2つの多次元ジャンプ拡散過程に関連する2つの確率分布間のワッサーシュタイン距離(W$-distance)を解析する。
具体的には, ドリフト, 拡散, 跳躍振幅関数に付随する上下境界を, 2つの跳躍拡散過程の間に有する時間的に分離した正方形W_2$-distanceを解析する。
次に,パラメータ化ニューラルネットワークを用いたデータから未知のジャンプ拡散過程を効率的に再構築する,時間的に分離された2乗法W_2$-distance法を提案する。
さらに,ジャンプ拡散過程のドリフト関数に関する事前情報を利用して,その性能を向上できることを示す。
提案手法の有効性をいくつかの例と応用例で示す。
関連論文リスト
- DynGMA: a robust approach for learning stochastic differential equations from data [13.858051019755283]
パラメータ化されたSDEの遷移密度に新しい近似を導入する。
本手法は, 完全に未知のドリフト拡散関数の学習において, ベースライン法と比較して精度が高い。
低時間解像度と可変、さらには制御不能な時間ステップサイズでデータを処理できる。
論文 参考訳(メタデータ) (2024-02-22T12:09:52Z) - Exploring Straighter Trajectories of Flow Matching with Diffusion
Guidance [66.4153984834872]
フローマッチング(StraightFM)のストレートトラジェクトリを提案する。
分布レベル全体から拡散モデルによって導かれる結合戦略により軌道を直線化する。
拡散法と従来のフローマッチング法の間で、FIDが低い視覚的に魅力的な画像を生成する。
論文 参考訳(メタデータ) (2023-11-28T06:19:30Z) - Network Embedding Using Sparse Approximations of Random Walks [2.676713226382288]
本稿では,拡散ウェーブレットアルゴリズムの修正版により得られたネットワーク上での拡散過程のスパース近似を用いて,通勤時間に基づくネットワーク埋め込みの効率的な数値的実装を提案する。
本稿では,データクラスタリングとマルチラベル分類における本手法の有効性をいくつかの例で示し,その性能を効率と精度の観点から比較する。
論文 参考訳(メタデータ) (2023-08-25T20:35:45Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - DeepParticle: learning invariant measure by a deep neural network
minimizing Wasserstein distance on data generated from an interacting
particle method [3.6310242206800667]
本稿では,力学系の不変測度を学習・生成するDeepParticle法を提案する。
我々は、与えられた入力(ソース)分布から任意のターゲット分布へのサンプルの変換を表現するために、ニューラルネットワーク(DNN)を使用する。
トレーニングでは、入力と対象サンプル間の離散的なワッサースタイン距離を最小限に抑えるために、ネットワーク重みを更新する。
論文 参考訳(メタデータ) (2021-11-02T03:48:58Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z) - Learning to Perform Downlink Channel Estimation in Massive MIMO Systems [72.76968022465469]
大規模マルチインプット・マルチアウトプット(MIMO)システムにおけるダウンリンク(DL)チャネル推定について検討する。
一般的なアプローチは、チャネル硬化によって動機付けられた推定値として平均値を使用することである。
本稿では2つの新しい推定法を提案する。
論文 参考訳(メタデータ) (2021-09-06T13:42:32Z) - Multi-fidelity Bayesian Neural Networks: Algorithms and Applications [0.0]
本稿では,可変忠実度の雑音データを用いて訓練できるベイズ型ニューラルネットワーク(BNN)を提案する。
関数近似の学習や、偏微分方程式(PDE)に基づく逆問題の解法に応用する。
論文 参考訳(メタデータ) (2020-12-19T02:03:53Z) - Operation-Aware Soft Channel Pruning using Differentiable Masks [51.04085547997066]
本稿では,データ駆動型アルゴリズムを提案する。このアルゴリズムは,操作特性を利用して,ディープニューラルネットワークを異なる方法で圧縮する。
我々は大規模な実験を行い、出力ネットワークの精度で優れた性能を達成する。
論文 参考訳(メタデータ) (2020-07-08T07:44:00Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。