論文の概要: Neural network based generation of 1-dimensional stochastic fields with
turbulent velocity statistics
- arxiv url: http://arxiv.org/abs/2211.11580v1
- Date: Mon, 21 Nov 2022 15:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 22:46:15.615887
- Title: Neural network based generation of 1-dimensional stochastic fields with
turbulent velocity statistics
- Title(参考訳): 乱流速度統計を用いた1次元確率場のニューラルネットワークによる生成
- Authors: Carlos Granero-Belinchon (ODYSSEY, IMT Atlantique - MEE,
Lab-STICC_OSE)
- Abstract要約: 本研究では,乱流速度統計量を持つ1次元場を生成する完全畳み込みニューラルネットワークモデルNN-Turbについて検討する。
我々のモデルは、乱流データと決して接触せず、トレーニングのためにスケールを越えた構造関数の所望の統計的挙動のみを必要とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We define and study a fully-convolutional neural network stochastic model,
NN-Turb, which generates 1-dimensional fields with turbulent velocity
statistics. Thus, the generated process satisfies the Kolmogorov 2/3 law for
second order structure function. It also presents negative skewness across
scales (i.e. Kolmogorov 4/5 law) and exhibits intermittency. Furthermore, our
model is never in contact with turbulent data and only needs the desired
statistical behavior of the structure functions across scales for training.
- Abstract(参考訳): 我々は,乱流速度統計量を持つ1次元場を生成する,完全畳み込みニューラルネットワーク確率モデルNN-Turbを定義し,研究する。
したがって、生成過程は2階構造関数に対するコルモゴロフ 2/3 則を満たす。
また、スケール(コルモゴロフ 4/5 法則)にまたがる負の傾きを示し、間欠性を示す。
さらに,モデルが乱流データと接触することはないため,学習のためのスケールにまたがる構造関数の所望の統計挙動のみが必要となる。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - A multiscale and multicriteria Generative Adversarial Network to synthesize 1-dimensional turbulent fields [0.0]
本稿では,乱流速度統計量を持つ1次元場を生成するニューラルネットワークモデルを提案する。
モデル構造と訓練手順は、完全に発達した乱流のコルモゴロフとオブホフ統計理論に基づいている。
模型の訓練にはモード風洞の格子乱流からの乱流速度信号を用いる。
論文 参考訳(メタデータ) (2023-07-31T11:34:41Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - A Solvable Model of Neural Scaling Laws [72.8349503901712]
大量のパラメータを持つ大規模な言語モデルは、インターネットに近い数のトークンで訓練されると、ニューラルネットワークのスケーリング法則に従うことが実証的に示されている。
我々は,このニューラルスケーリング現象を捉える統計モデル(共同生成データモデルとランダム特徴モデル)を提案する。
主な発見は、自然データセットの統計に現れる電力法則が非線形ランダムな特徴写像によって拡張される方法である。
論文 参考訳(メタデータ) (2022-10-30T15:13:18Z) - Simple lessons from complex learning: what a neural network model learns
about cosmic structure formation [7.270598539996841]
我々は、宇宙論的N体シミュレーションの完全な位相空間進化を予測するためにニューラルネットワークモデルを訓練する。
本モデルでは, 非線形スケールでの精度を, COLAに対して有意な改善を示す$ksim 1 MathrmMpc-1, h$で達成する。
論文 参考訳(メタデータ) (2022-06-09T15:41:09Z) - On the Dynamics of Inference and Learning [0.0]
本稿では,このベイズ更新過程を連続力学系として扱う。
クラムラーラオ境界が飽和すると、学習率は単純な1/T$パワーローによって制御されることを示す。
論文 参考訳(メタデータ) (2022-04-19T18:04:36Z) - Emulating Spatio-Temporal Realizations of Three-Dimensional Isotropic
Turbulence via Deep Sequence Learning Models [24.025975236316842]
最先端のディープラーニング技術を用いて3次元乱流をモデル化するために,データ駆動方式を用いる。
モデルの精度は、統計および物理に基づくメトリクスを用いて評価される。
論文 参考訳(メタデータ) (2021-12-07T03:33:39Z) - Graph Convolutional Neural Networks for Body Force Prediction [0.0]
グラフベースのデータ駆動モデルを示し、非構造化メッシュ上で定義されたフィールドの推論を行う。
ネットワークは、異なる解像度のフィールドサンプルから推論することができ、各サンプルの測定結果が提示される順序に不変である。
論文 参考訳(メタデータ) (2020-12-03T19:53:47Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。