論文の概要: Simple lessons from complex learning: what a neural network model learns
about cosmic structure formation
- arxiv url: http://arxiv.org/abs/2206.04573v1
- Date: Thu, 9 Jun 2022 15:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 18:58:17.577366
- Title: Simple lessons from complex learning: what a neural network model learns
about cosmic structure formation
- Title(参考訳): 複雑な学習からの簡単な教訓:ニューラルネットワークモデルが宇宙構造形成について学ぶ
- Authors: Drew Jamieson, Yin Li, Siyu He, Francisco Villaescusa-Navarro, Shirley
Ho, Renan Alves de Oliveira, David N. Spergel
- Abstract要約: 我々は、宇宙論的N体シミュレーションの完全な位相空間進化を予測するためにニューラルネットワークモデルを訓練する。
本モデルでは, 非線形スケールでの精度を, COLAに対して有意な改善を示す$ksim 1 MathrmMpc-1, h$で達成する。
- 参考スコア(独自算出の注目度): 7.270598539996841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We train a neural network model to predict the full phase space evolution of
cosmological N-body simulations. Its success implies that the neural network
model is accurately approximating the Green's function expansion that relates
the initial conditions of the simulations to its outcome at later times in the
deeply nonlinear regime. We test the accuracy of this approximation by
assessing its performance on well understood simple cases that have either
known exact solutions or well understood expansions. These scenarios include
spherical configurations, isolated plane waves, and two interacting plane
waves: initial conditions that are very different from the Gaussian random
fields used for training. We find our model generalizes well to these well
understood scenarios, demonstrating that the networks have inferred general
physical principles and learned the nonlinear mode couplings from the complex,
random Gaussian training data. These tests also provide a useful diagnostic for
finding the model's strengths and weaknesses, and identifying strategies for
model improvement. We also test the model on initial conditions that contain
only transverse modes, a family of modes that differ not only in their phases
but also in their evolution from the longitudinal growing modes used in the
training set. When the network encounters these initial conditions that are
orthogonal to the training set, the model fails completely. In addition to
these simple configurations, we evaluate the model's predictions for the
density, displacement, and momentum power spectra with standard initial
conditions for N-body simulations. We compare these summary statistics against
N-body results and an approximate, fast simulation method called COLA. Our
model achieves percent level accuracy at nonlinear scales of $k\sim 1\
\mathrm{Mpc}^{-1}\, h$, representing a significant improvement over COLA.
- Abstract(参考訳): 我々は,宇宙論的n体シミュレーションの全位相空間進化を予測するためにニューラルネットワークモデルを訓練する。
その成功は、ニューラルネットワークモデルが、シミュレーションの初期条件と後の非線形状態における結果に関連するグリーン関数展開の正確な近似であることを示唆している。
我々は,この近似の精度を,解の完全性や拡張性が分かっていたような,よく理解された単純なケースで評価することで検証する。
これらのシナリオには球面構成、孤立した平面波、相互作用する2つの平面波が含まれる: 訓練に使用されるガウス確率場とは大きく異なる初期条件。
我々のモデルは、これらのよく理解されたシナリオによく当てはまり、ネットワークが一般的な物理原理を推論し、複雑なランダムなガウス学習データから非線形モード結合を学習したことを示す。
これらのテストはまた、モデルの強みと弱みを見つけ、モデル改善のための戦略を特定するのに有用な診断を提供する。
また, 逆モードのみを含む初期条件, 位相だけでなく, トレーニングセットで使用される長手成長モードとも相違するモード群についても実験を行った。
ネットワークがトレーニングセットに直交するこれらの初期条件に遭遇すると、モデルは完全に失敗する。
これらの簡単な構成に加えて、N体シミュレーションの標準的な初期条件による密度、変位、運動量パワースペクトルに対するモデルの予測を評価する。
我々はこれらの要約統計をN-bodyの結果とCOLAと呼ばれる近似的高速シミュレーション法と比較した。
本モデルでは, 非線形スケールでの精度を, COLAに対する顕著な改善を示す$k\sim 1\ \mathrm{Mpc}^{-1}\, h$で達成する。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - NeuralFMU: Presenting a workflow for integrating hybrid NeuralODEs into
real world applications [0.0]
我々は、NeuralFMUをセットアップおよび使用するための直感的なワークフローを提案する。
本稿では,自動車の縦波力学モデルに基づく消費シミュレーションのためのNeuralFMUをデプロイすることで,この概念を実証する。
論文 参考訳(メタデータ) (2022-09-08T17:17:46Z) - Instability and Local Minima in GAN Training with Kernel Discriminators [20.362912591032636]
GAN(Generative Adversarial Networks)は、複雑なデータの生成モデリングに広く使われているツールである。
実験的な成功にもかかわらず、ジェネレータと判別器のmin-max最適化のため、GANの訓練は十分には理解されていない。
本稿では、真のサンプルと生成されたサンプルが離散有限集合であり、判別器がカーネルベースである場合に、これらの関節力学を解析する。
論文 参考訳(メタデータ) (2022-08-21T18:03:06Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Bayesian Neural Ordinary Differential Equations [0.9422623204346027]
Neural ODEs と Bayesian 推論フレームワークの統合が成功したことを実証します。
10,000枚の画像のテストアンサンブルで、後部のサンプル精度を98.5%達成します。
これにより、不確実性の確率的推定のための科学的機械学習ツールが提供される。
論文 参考訳(メタデータ) (2020-12-14T04:05:26Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - The Gaussian equivalence of generative models for learning with shallow
neural networks [30.47878306277163]
本研究では,事前学習した生成モデルから得られたデータに基づいて学習したニューラルネットワークの性能について検討する。
この等価性を裏付ける厳密で解析的で数値的な証拠を3本提供します。
これらの結果は、現実的なデータを持つ機械学習モデルの理論研究への有効な道を開く。
論文 参考訳(メタデータ) (2020-06-25T21:20:09Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z) - Learning CHARME models with neural networks [1.5362025549031046]
我々はCHARME(Conditional Heteroscedastic Autoregressive Mixture of Experts)と呼ばれるモデルを考える。
そこで本研究では,NNに基づく自己回帰関数の学習理論を開発した。
論文 参考訳(メタデータ) (2020-02-08T21:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。