論文の概要: Opportunistic Emulation of Computationally Expensive Simulations via
Deep Learning
- arxiv url: http://arxiv.org/abs/2108.11057v1
- Date: Wed, 25 Aug 2021 05:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 12:57:42.782458
- Title: Opportunistic Emulation of Computationally Expensive Simulations via
Deep Learning
- Title(参考訳): 深層学習による計算費用シミュレーションの機会論的エミュレーション
- Authors: Conrad Sanderson, Dan Pagendam, Brendan Power, Frederick Bennett, Ross
Darnell
- Abstract要約: 本稿では,APSIMモデルの機会論的モデルエミュレーションにおけるディープニューラルネットワークの利用について検討する。
我々は,APSIMモデルの4つの重要な出力(runoff, soil_loss, DINrunoff, Nleached)をエミュレートすることに重点を置いている。
- 参考スコア(独自算出の注目度): 9.13837510233406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the underlying aim of increasing efficiency of computational modelling
pertinent for managing and protecting the Great Barrier Reef, we investigate
the use of deep neural networks for opportunistic model emulation of APSIM
models by repurposing an existing large dataset containing the outputs of APSIM
model runs. The dataset has not been specifically tailored for the model
emulation task. We employ two neural network architectures for the emulation
task: densely connected feed-forward neural network (FFNN), and gated recurrent
unit feeding into FFNN (GRU-FFNN), a type of a recurrent neural network.
Various configurations of the architectures are trialled. A minimum correlation
statistic is employed to identify clusters of APSIM scenarios that can be
aggregated to form training sets for model emulation. We focus on emulating
four important outputs of the APSIM model: runoff, soil_loss, DINrunoff,
Nleached. The GRU-FFNN architecture with three hidden layers and 128 units per
layer provides good emulation of runoff and DINrunoff. However, soil_loss and
Nleached were emulated relatively poorly under a wide range of the considered
architectures; the emulators failed to capture variability at higher values of
these two outputs. While the opportunistic data available from past modelling
activities provides a large and useful dataset for exploring APSIM emulation,
it may not be sufficiently rich enough for successful deep learning of more
complex model dynamics. Design of Computer Experiments may be required to
generate more informative data to emulate all output variables of interest. We
also suggest the use of synthetic meteorology settings to allow the model to be
fed a wide range of inputs. These need not all be representative of normal
conditions, but can provide a denser, more informative dataset from which
complex relationships between input and outputs can be learned.
- Abstract(参考訳): グレートバリアリーフの管理と保護を目的とした計算モデリングの効率向上を基礎として,APSIMモデルの実行出力を含む既存の大規模データセットを再利用することにより,APSIMモデルの機会論的モデルエミュレーションにディープニューラルネットワークを用いることを検討した。
データセットは、モデルエミュレーションタスクに特化していない。
我々は,2つのニューラルネットワークアーキテクチャをエミュレーションタスクに適用する:密結合フィードフォワードニューラルネットワーク(FFNN)と,繰り返しニューラルネットワークの一種であるFFNN(GRU-FFNN)へのゲートリカレントユニット供給。
アーキテクチャの様々な構成が試行されている。
最小相関統計量を用いて、モデルエミュレーションのためのトレーニングセットを形成するために集約可能なAPSIMシナリオのクラスタを特定する。
apsimモデルの4つの重要なアウトプットであるrunoff, soil_loss, dinrunoff, nleachedをエミュレートすることに注力した。
GRU-FFNNアーキテクチャは3つの隠蔽層と1層128ユニットで、ランオフとDINrunoffをうまくエミュレートする。
しかしながら、 soil_loss と nleached は、考慮されたアーキテクチャの範囲内で比較的低くエミュレートされ、エミュレータはこれら2つの出力のより高い値で可変性をキャプチャできなかった。
過去のモデリングアクティビティから得られる日和見データは、アプシムエミュレーションを探索するための大規模で有用なデータセットを提供するが、より複雑なモデルダイナミクスのディープラーニングを成功させるには不十分である。
コンピュータ実験の設計は、興味のあるすべての出力変数をエミュレートするために、より情報的なデータを生成する必要がある。
また、モデルが幅広い入力を供給できるようにするために、合成気象設定を使用することも提案する。
これらはすべて正常な状態の代表である必要はなく、入力と出力の間の複雑な関係を学習できるより密集したより有益なデータセットを提供することができる。
関連論文リスト
- A Multi-Fidelity Graph U-Net Model for Accelerated Physics Simulations [1.2430809884830318]
本稿では,GNNモデルの性能向上のための多元性手法の利点を生かした,新しいGNNアーキテクチャであるMulti-Fidelity U-Netを提案する。
提案手法は精度とデータ要求において有意に優れた性能を示すことを示す。
また,提案アーキテクチャの高速バージョンであるMulti-Fidelity U-Net Liteを35%高速化し,精度を2~5%削減した。
論文 参考訳(メタデータ) (2024-12-19T20:09:38Z) - Learning from the Giants: A Practical Approach to Underwater Depth and Surface Normals Estimation [3.0516727053033392]
本稿では,単眼深度と表面正規化推定(MDSNE)のための新しいディープラーニングモデルを提案する。
これは特に、CNNとTransformerを統合するハイブリッドアーキテクチャを使用して、水中環境向けに調整されている。
我々のモデルはパラメータを90%削減し、トレーニングコストを80%削減し、リソース制約されたデバイス上でリアルタイムな3D認識を可能にする。
論文 参考訳(メタデータ) (2024-10-02T22:41:12Z) - POMONAG: Pareto-Optimal Many-Objective Neural Architecture Generator [4.09225917049674]
Transferable NASが登場し、データセット依存からタスク依存への探索プロセスを一般化した。
本稿では多目的拡散プロセスを通じて拡散NAGを拡張するPOMONAGを紹介する。
結果は、NAS201とMobileNetV3の2つの検索スペースで検証され、15の画像分類データセットで評価された。
論文 参考訳(メタデータ) (2024-09-30T16:05:29Z) - Accurate deep learning sub-grid scale models for large eddy simulations [0.0]
大型渦流シミュレーション(LES)のために開発されたサブグリッドスケール(SGS)乱流モデルについて述べる。
彼らの開発には、物理インフォームド・ロバストで効率的なDeep Learning (DL)アルゴリズムの定式化が必要だった。
2つの摩擦レイノルズ数における正準流路流れの直接シミュレーションによるデータの明示的なフィルタリングは、訓練と試験のための正確なデータを提供した。
論文 参考訳(メタデータ) (2023-07-19T15:30:06Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Learning Large-scale Subsurface Simulations with a Hybrid Graph Network
Simulator [57.57321628587564]
本研究では3次元地下流体の貯留層シミュレーションを学習するためのハイブリッドグラフネットワークシミュレータ (HGNS) を提案する。
HGNSは、流体の進化をモデル化する地下グラフニューラルネットワーク(SGNN)と、圧力の進化をモデル化する3D-U-Netで構成されている。
産業標準地下フローデータセット(SPE-10)と1100万セルを用いて,HGNSが標準地下シミュレータの18倍の推算時間を短縮できることを実証した。
論文 参考訳(メタデータ) (2022-06-15T17:29:57Z) - Multi-fidelity Hierarchical Neural Processes [79.0284780825048]
多要素代理モデリングは、異なるシミュレーション出力を融合させることで計算コストを削減する。
本稿では,多階層型階層型ニューラルネットワーク(MF-HNP)を提案する。
疫学および気候モデリングタスクにおけるMF-HNPの評価を行い、精度と不確実性評価の観点から競合性能を達成した。
論文 参考訳(メタデータ) (2022-06-10T04:54:13Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Investigating the Relationship Between Dropout Regularization and Model
Complexity in Neural Networks [0.0]
ドロップアウト規則化は、ディープラーニングモデルのばらつきを低減するのに役立つ。
2,000のニューラルネットワークをトレーニングすることにより,ドロップアウト率とモデル複雑性の関係について検討する。
各密層に隠されたユニットの数から、最適なドロップアウト率を予測するニューラルネットワークを構築します。
論文 参考訳(メタデータ) (2021-08-14T23:49:33Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。