論文の概要: Self-Consistency of the Fokker-Planck Equation
- arxiv url: http://arxiv.org/abs/2206.00860v1
- Date: Thu, 2 Jun 2022 03:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 23:56:21.693971
- Title: Self-Consistency of the Fokker-Planck Equation
- Title(参考訳): Fokker-Planck方程式の自己整合性
- Authors: Zebang Shen, Zhenfu Wang, Satyen Kale, Alejandro Ribeiro, Aim Karbasi,
Hamed Hassani
- Abstract要約: フォッカー・プランク方程式は、伊藤過程の密度進化を支配している。
地絡速度場は固定点方程式の解であることを示すことができる。
本稿では,この概念を利用して仮説速度場のポテンシャル関数を設計する。
- 参考スコア(独自算出の注目度): 117.17004717792344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Fokker-Planck equation (FPE) is the partial differential equation that
governs the density evolution of the It\^o process and is of great importance
to the literature of statistical physics and machine learning. The FPE can be
regarded as a continuity equation where the change of the density is completely
determined by a time varying velocity field. Importantly, this velocity field
also depends on the current density function. As a result, the ground-truth
velocity field can be shown to be the solution of a fixed-point equation, a
property that we call self-consistency. In this paper, we exploit this concept
to design a potential function of the hypothesis velocity fields, and prove
that, if such a function diminishes to zero during the training procedure, the
trajectory of the densities generated by the hypothesis velocity fields
converges to the solution of the FPE in the Wasserstein-2 sense. The proposed
potential function is amenable to neural-network based parameterization as the
stochastic gradient with respect to the parameter can be efficiently computed.
Once a parameterized model, such as Neural Ordinary Differential Equation is
trained, we can generate the entire trajectory to the FPE.
- Abstract(参考訳): フォッカー・プランク方程式 (Fokker-Planck equation, FPE) は、It\^o 過程の密度進化を制御した偏微分方程式であり、統計物理学や機械学習の文献において非常に重要である。
FPEは、時間変化速度場によって密度の変化が完全に決定される連続性方程式とみなすことができる。
重要なことに、この速度場は電流密度関数にも依存する。
その結果、接地速度場は、我々が自己矛盾と呼ぶ性質である固定点方程式の解であることが示される。
本稿では,この概念を応用して仮説速度場のポテンシャル関数を設計し,その関数が訓練中にゼロに減少すると,仮説速度場が生成する密度の軌跡がwasserstein-2感覚でfpeの解に収束することを示す。
提案するポテンシャル関数は、パラメータに対する確率勾配を効率的に計算できるため、ニューラルネットワークに基づくパラメータ化に適応できる。
ニューラル正規微分方程式のようなパラメータ化モデルが訓練されると、FPEへの全軌道を生成することができる。
関連論文リスト
- A score-based particle method for homogeneous Landau equation [7.600098227248821]
プラズマ中のランダウ方程式を解くための新しいスコアベース粒子法を提案する。
我々の主要な革新は、この非線形性がスコア関数の形式にあることを認識することである。
我々は, 近似と真の解とのKL分散を, スコアマッチング損失によって効果的に制御できることを証明し, 理論的推定を行った。
論文 参考訳(メタデータ) (2024-05-08T16:22:47Z) - Real-time dynamics of false vacuum decay [49.1574468325115]
非対称二重井戸電位の準安定最小値における相対論的スカラー場の真空崩壊について検討した。
我々は,2粒子既約(2PI)量子実効作用の非摂動的枠組みを,Nの大規模展開において次から次へと誘導する順序で採用する。
論文 参考訳(メタデータ) (2023-10-06T12:44:48Z) - PINF: Continuous Normalizing Flows for Physics-Constrained Deep Learning [8.000355537589224]
本稿では,連続正規化フローの新たな拡張である物理インフォームド正規化フロー(PINF)を紹介する。
メッシュフリーかつ因果フリーな本手法は,高次元時間依存性と定常状態Fokker-Planck方程式を効率的に解ける。
論文 参考訳(メタデータ) (2023-09-26T15:38:57Z) - FP-IRL: Fokker-Planck-based Inverse Reinforcement Learning -- A
Physics-Constrained Approach to Markov Decision Processes [0.5735035463793008]
逆強化学習(英: Inverse Reinforcement Learning、IRL)は、自律エージェントの行動の基礎となる根拠を明らかにする技術である。
IRLは、観測されたエージェント軌道からマルコフ決定過程(MDP)の未知の報酬関数を推定しようとする。
我々は、観測軌道のみを用いて遷移関数と報酬関数を同時に推論できる新しいIRLアルゴリズムFP-IRLを作成する。
論文 参考訳(メタデータ) (2023-06-17T18:28:03Z) - Self-Consistent Velocity Matching of Probability Flows [22.2542921090435]
偏微分方程式(PDE)のクラスを解くための離散化のないスケーラブルなフレームワークを提案する。
主な観察は、PDE溶液の時間変化速度場は自己整合性が必要であることである。
実験性能の強い計算障害を回避できるバイアス勾配推定器を用いた反復的定式化を用いる。
論文 参考訳(メタデータ) (2023-01-31T16:17:18Z) - Forecasting subcritical cylinder wakes with Fourier Neural Operators [58.68996255635669]
実験によって測定された速度場の時間的変化を予測するために,最先端の演算子学習手法を適用した。
その結果、FNOはレイノルズ数の範囲で実験速度場の進化を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2023-01-19T20:04:36Z) - The Limiting Dynamics of SGD: Modified Loss, Phase Space Oscillations,
and Anomalous Diffusion [29.489737359897312]
勾配降下法(SGD)を訓練した深部ニューラルネットワークの限界ダイナミクスについて検討する。
これらのダイナミクスを駆動する重要な要素は、本来のトレーニング損失ではなく、位相空間の振動を引き起こす速度と確率電流を暗黙的に規則化する修正損失の組み合わせであることを示す。
論文 参考訳(メタデータ) (2021-07-19T20:18:57Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Variational Transport: A Convergent Particle-BasedAlgorithm for Distributional Optimization [106.70006655990176]
分散最適化問題は機械学習や統計学で広く発生する。
本稿では,変分輸送と呼ばれる粒子に基づく新しいアルゴリズムを提案する。
目的関数がpolyak-Lojasiewicz (PL) (Polyak, 1963) の機能バージョンと滑らかな条件を満たすとき、変分輸送は線形に収束することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:33:13Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。