論文の概要: Physics-informed neural particle flow for the Bayesian update step
- arxiv url: http://arxiv.org/abs/2602.23089v1
- Date: Thu, 26 Feb 2026 15:10:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.740475
- Title: Physics-informed neural particle flow for the Bayesian update step
- Title(参考訳): ベイズ更新ステップのための物理インフォームドニューラル粒子流
- Authors: Domonkos Csuzdi, Tamás Bécsi, Olivér Törő,
- Abstract要約: 本稿では,物理インフォームド・ニューラル粒子フローを提案する。
制御偏微分方程式(PDE)を損失関数に埋め込むことで、ニューラルネットワークをトレーニングして輸送速度場を近似する。
ニューラルネットワークのパラメータ化は暗黙の正則化器として機能し,解析フローに固有の剛性を緩和することを示した。
- 参考スコア(独自算出の注目度): 0.8220217498103312
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Bayesian update step poses significant computational challenges in high-dimensional nonlinear estimation. While log-homotopy particle flow filters offer an alternative to stochastic sampling, existing formulations usually yield stiff differential equations. Conversely, existing deep learning approximations typically treat the update as a black-box task or rely on asymptotic relaxation, neglecting the exact geometric structure of the finite-horizon probability transport. In this work, we propose a physics-informed neural particle flow, which is an amortized inference framework. To construct the flow, we couple the log-homotopy trajectory of the prior to posterior density function with the continuity equation describing the density evolution. This derivation yields a governing partial differential equation (PDE), referred to as the master PDE. By embedding this PDE as a physical constraint into the loss function, we train a neural network to approximate the transport velocity field. This approach enables purely unsupervised training, eliminating the need for ground-truth posterior samples. We demonstrate that the neural parameterization acts as an implicit regularizer, mitigating the numerical stiffness inherent to analytic flows and reducing online computational complexity. Experimental validation on multimodal benchmarks and a challenging nonlinear scenario confirms better mode coverage and robustness compared to state-of-the-art baselines.
- Abstract(参考訳): ベイジアン更新ステップは、高次元非線形推定において重要な計算上の課題を示す。
対数ホモトピー粒子流フィルタは確率的サンプリングの代替となるが、既存の定式化は通常、硬い微分方程式を生成する。
逆に、既存のディープラーニング近似は、更新をブラックボックスタスクとして扱うか、あるいは漸近緩和に依存し、有限水平確率輸送の正確な幾何学的構造を無視している。
本研究では,物理インフォームド・ニューラル・パーティクル・フローを提案する。
流れを構成するために, 後続密度関数の前向きの対数ホモトピー軌道と, 密度の進化を記述する連続性方程式を結合する。
この導出は支配偏微分方程式(PDE)を導出し、マスター PDE と呼ばれる。
このPDEを物理制約として損失関数に埋め込むことで、ニューラルネットワークをトレーニングして輸送速度場を近似する。
このアプローチは、純粋に教師なしのトレーニングを可能にし、接地トラス後部サンプルの必要性を排除している。
ニューラルネットワークのパラメータ化は暗黙の正則化器として機能し、解析フローに固有の数値剛性を緩和し、オンライン計算の複雑さを低減させる。
マルチモーダルベンチマークの実験検証と難解な非線形シナリオは、最先端のベースラインと比較してモードカバレッジとロバスト性を改善する。
関連論文リスト
- Generative Modeling with Continuous Flows: Sample Complexity of Flow Matching [60.37045080890305]
本稿では,フローマッチングに基づく生成モデルにおいて,サンプルの複雑さを初めて解析する。
速度場推定誤差をニューラルネットワーク近似誤差、有限標本サイズによる統計的誤差、速度場推定のための有限個の最適化ステップによる最適化誤差に分解する。
論文 参考訳(メタデータ) (2025-12-01T05:14:25Z) - Preconditioned FEM-based Neural Networks for Solving Incompressible Fluid Flows and Related Inverse Problems [41.94295877935867]
偏微分方程式で記述された技術システムの数値シミュレーションと最適化は高価である。
この文脈で比較的新しいアプローチは、ニューラルネットワークの優れた近似特性と古典的有限要素法を組み合わせることである。
本稿では, この手法を, サドルポイント問題と非線形流体力学問題に拡張する。
論文 参考訳(メタデータ) (2024-09-06T07:17:01Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Self-Consistent Velocity Matching of Probability Flows [22.2542921090435]
偏微分方程式(PDE)のクラスを解くための離散化のないスケーラブルなフレームワークを提案する。
主な観察は、PDE溶液の時間変化速度場は自己整合性が必要であることである。
実験性能の強い計算障害を回避できるバイアス勾配推定器を用いた反復的定式化を用いる。
論文 参考訳(メタデータ) (2023-01-31T16:17:18Z) - The Limiting Dynamics of SGD: Modified Loss, Phase Space Oscillations,
and Anomalous Diffusion [29.489737359897312]
勾配降下法(SGD)を訓練した深部ニューラルネットワークの限界ダイナミクスについて検討する。
これらのダイナミクスを駆動する重要な要素は、本来のトレーニング損失ではなく、位相空間の振動を引き起こす速度と確率電流を暗黙的に規則化する修正損失の組み合わせであることを示す。
論文 参考訳(メタデータ) (2021-07-19T20:18:57Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。