論文の概要: A generalized Wasserstein-2 distance approach for efficient reconstruction of random field models using stochastic neural networks
- arxiv url: http://arxiv.org/abs/2507.05143v1
- Date: Mon, 07 Jul 2025 15:53:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.497952
- Title: A generalized Wasserstein-2 distance approach for efficient reconstruction of random field models using stochastic neural networks
- Title(参考訳): 確率的ニューラルネットワークを用いたランダム場モデルの効率的な再構成のための一般化Wasserstein-2距離法
- Authors: Mingtao Xia, Qijing Shen,
- Abstract要約: ニューラルネットワークは,非制限条件下でのワッサーシュタイン2距離距離のランダム場モデルを再構成可能であることを証明した。
このニューラルネットワークは、提案した一般化された局所的なWasserstein-2損失関数を最小化することにより、効率的に訓練することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a novel generalized Wasserstein-2 distance approach for efficiently training stochastic neural networks to reconstruct random field models, where the target random variable comprises both continuous and categorical components. We prove that a stochastic neural network can approximate random field models under a Wasserstein-2 distance metric under nonrestrictive conditions. Furthermore, this stochastic neural network can be efficiently trained by minimizing our proposed generalized local squared Wasserstein-2 loss function. We showcase the effectiveness of our proposed approach in various uncertainty quantification tasks, including classification, reconstructing the distribution of mixed random variables, and learning complex noisy dynamical systems from spatiotemporal data.
- Abstract(参考訳): 本研究では,確率的ニューラルネットワークを効率的に訓練し,対象の確率変数が連続成分とカテゴリー成分の両方から構成される確率場モデルを再構築する,一般化されたワッサーシュタイン2距離法を提案する。
確率的ニューラルネットワークは、非制限条件下でのワッサーシュタイン2距離距離測定の下でランダム場モデルを近似できることを示す。
さらに、この確率的ニューラルネットワークは、一般化された局所二乗ワッサーシュタイン2損失関数を最小化することにより、効率的に訓練することができる。
提案手法の有効性について, 分類, 混合確率変数の分布再構成, 時空間データから複雑な雑音の力学系を学習するなど, 様々な不確実性定量化タスクで検証した。
関連論文リスト
- A new local time-decoupled squared Wasserstein-2 method for training stochastic neural networks to reconstruct uncertain parameters in dynamical systems [0.0]
提案する局所時間分解型二乗ワッサースタイン2損失関数を最小化することにより,ネットワークニューラルモデルを効果的に訓練できることを示す。
本稿では,パラメータ分布の再構成における提案手法の有効性を示す。
論文 参考訳(メタデータ) (2025-03-07T01:20:43Z) - A local squared Wasserstein-2 method for efficient reconstruction of models with uncertainty [0.0]
本稿では,不確定な潜伏変数やパラメータを持つモデル再構成の逆問題を解決するために,局所二乗ワッサースタイン-2(W_2)法を提案する。
このアプローチの重要な利点は、下位モデルにおける潜伏変数やパラメータの分布に関する事前情報を必要としないことである。
論文 参考訳(メタデータ) (2024-06-10T22:15:55Z) - On Feynman--Kac training of partial Bayesian neural networks [1.6474447977095783]
部分ベイズニューラルネットワーク(pBNN)は、完全なベイズニューラルネットワークと競合することが示されている。
本稿では,Feynman-Kacモデルのシミュレーションとして,pBNNのトレーニングを定式化した効率的なサンプリングベーストレーニング戦略を提案する。
提案手法は, 予測性能において, 技術状況よりも優れることを示す。
論文 参考訳(メタデータ) (2023-10-30T15:03:15Z) - Uncovering Challenges of Solving the Continuous Gromov-Wasserstein Problem [63.99794069984492]
グロモフ=ワッサーシュタイン最適輸送(Gromov-Wasserstein Optimal Transport, GWOT)問題は、MLコミュニティの特別な関心を集めている。
既存の連続GWOTアプローチをさまざまなシナリオでクラッシュテストし、結果を注意深く記録し分析し、問題を特定します。
本稿では,離散的手法に依存しない新たな連続GWOT法を提案し,競合の問題を部分的に解決する。
論文 参考訳(メタデータ) (2023-03-10T15:21:12Z) - Mean-field neural networks: learning mappings on Wasserstein space [0.0]
確率測度のワッサーシュタイン空間と関数の空間を対応づけたモデルに対する機械学習タスクについて検討する。
ニューラルネットワークの2つのクラスは、いわゆる平均場関数を学習するために提案される。
本稿では,時間依存型平均場問題の解法として,平均場ニューラルネットワークを用いたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-27T05:11:42Z) - DeepParticle: learning invariant measure by a deep neural network
minimizing Wasserstein distance on data generated from an interacting
particle method [3.6310242206800667]
本稿では,力学系の不変測度を学習・生成するDeepParticle法を提案する。
我々は、与えられた入力(ソース)分布から任意のターゲット分布へのサンプルの変換を表現するために、ニューラルネットワーク(DNN)を使用する。
トレーニングでは、入力と対象サンプル間の離散的なワッサースタイン距離を最小限に抑えるために、ネットワーク重みを更新する。
論文 参考訳(メタデータ) (2021-11-02T03:48:58Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Learning High Dimensional Wasserstein Geodesics [55.086626708837635]
高次元の2つの確率分布の間のワッサーシュタイン測地線を計算するための新しい定式化と学習戦略を提案する。
ラグランジュ乗算器の手法を最適輸送(OT)問題の動的定式化に適用することにより、サドル点がワッサーシュタイン測地線であるミニマックス問題を導出する。
次に、深層ニューラルネットワークによる関数のパラメータ化を行い、トレーニングのためのサンプルベースの双方向学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-02-05T04:25:28Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。