論文の概要: Accurate generation of stochastic dynamics based on multi-model
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2305.15920v2
- Date: Tue, 1 Aug 2023 12:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 17:28:13.488902
- Title: Accurate generation of stochastic dynamics based on multi-model
Generative Adversarial Networks
- Title(参考訳): 多モデル生成逆数ネットワークに基づく確率力学の高精度生成
- Authors: Daniele Lanzoni, Olivier Pierre-Louis, Francesco Montalenti
- Abstract要約: GAN(Generative Adversarial Networks)は、テキストや画像生成などの分野において大きな可能性を秘めている。
ここでは、格子上の原型過程に適用することにより、このアプローチを定量的に検証する。
重要なことに、ノイズにもかかわらずモデルの離散性は維持される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have shown immense potential in fields
such as text and image generation. Only very recently attempts to exploit GANs
to statistical-mechanics models have been reported. Here we quantitatively test
this approach by applying it to a prototypical stochastic process on a lattice.
By suitably adding noise to the original data we succeed in bringing both the
Generator and the Discriminator loss functions close to their ideal value.
Importantly, the discreteness of the model is retained despite the noise. As
typical for adversarial approaches, oscillations around the convergence limit
persist also at large epochs. This undermines model selection and the quality
of the generated trajectories. We demonstrate that a simple multi-model
procedure where stochastic trajectories are advanced at each step upon randomly
selecting a Generator leads to a remarkable increase in accuracy. This is
illustrated by quantitative analysis of both the predicted equilibrium
probability distribution and of the escape-time distribution. Based on the
reported findings, we believe that GANs are a promising tool to tackle complex
statistical dynamics by machine learning techniques
- Abstract(参考訳): generative adversarial networks (gans) はテキストや画像生成といった分野において大きな可能性を示している。
ごく最近の統計力学モデルへのGANの利用の試みが報告されている。
ここでは、格子上の原型確率過程に適用することにより、このアプローチを定量的に検証する。
元のデータに適切にノイズを加えることで、ジェネレータと判別器の損失関数の両方を理想値に近づけることに成功した。
重要なことに、ノイズにもかかわらずモデルの離散性は維持される。
逆向きのアプローチでは典型的なように、収束限界の周りの振動も大きなエポックで持続する。
これはモデルの選択と生成した軌道の品質を損なう。
ランダムにジェネレータを選択すると,各ステップで確率軌道が進行する単純なマルチモデル手法が,精度を著しく向上させることを示した。
これは、予測平衡確率分布と脱走時間分布の両方の定量的解析によって説明される。
報告された結果に基づき,gansは機械学習手法によって複雑な統計力学に取り組む有望なツールであると信じている。
関連論文リスト
- GenFormer: A Deep-Learning-Based Approach for Generating Multivariate
Stochastic Processes [5.679243827959339]
本稿では,マルコフ状態列と時系列値のマッピングを学習するトランスフォーマーに基づくディープラーニングモデルを提案する。
GenFormerモデルを用いて,フロリダ州各地の風速データをシミュレーションし,リスク管理のための超越確率を計算する。
論文 参考訳(メタデータ) (2024-02-03T03:50:18Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - HyperSINDy: Deep Generative Modeling of Nonlinear Stochastic Governing
Equations [5.279268784803583]
本稿では,データからのスパース制御方程式の深部生成モデルを用いた動的モデリングフレームワークHyperSINDyを紹介する。
一度訓練すると、HyperSINDyは、係数が白色雑音によって駆動される微分方程式を介して力学を生成する。
実験では、HyperSINDyはデータと一致するように学習度をスケーリングすることで、基底的真理支配方程式を復元する。
論文 参考訳(メタデータ) (2023-10-07T14:41:59Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Effective Dynamics of Generative Adversarial Networks [16.51305515824504]
GAN(Generative Adversarial Network)は、新しいサンプルを生成するために対人訓練を使用する機械学習モデルのクラスである。
モード崩壊と呼ばれるトレーニング失敗の1つの主要な形態は、ジェネレータがターゲット確率分布におけるモードの完全な多様性を再現できないことである。
本稿では,ジェネレータニューラルネットワークを出力空間内の粒子の集合に置き換えることで,学習ダイナミクスを捕捉するGANトレーニングの効果的なモデルを提案する。
論文 参考訳(メタデータ) (2022-12-08T22:04:01Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - Latent Gaussian Model Boosting [0.0]
ツリーブースティングは多くのデータセットに対して優れた予測精度を示す。
シミュレーションおよび実世界のデータ実験において,既存の手法と比較して予測精度が向上した。
論文 参考訳(メタデータ) (2021-05-19T07:36:30Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Combining data assimilation and machine learning to emulate a dynamical
model from sparse and noisy observations: a case study with the Lorenz 96
model [0.0]
この方法は、アンサンブルカルマンフィルタとニューラルネットワークを反復的にデータ同化ステップで適用することで構成される。
データ同化は、代理モデルとスパースデータとを最適に組み合わせるために用いられる。
出力分析は空間的に完全であり、サロゲートモデルを更新するためのニューラルネットワークによるトレーニングセットとして使用される。
カオス的な40変数Lorenz 96モデルを用いて数値実験を行い、提案手法の収束と統計的スキルの両立を証明した。
論文 参考訳(メタデータ) (2020-01-06T12:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。