論文の概要: A two stages Deep Learning Architecture for Model Reduction of
Parametric Time-Dependent Problems
- arxiv url: http://arxiv.org/abs/2301.09926v1
- Date: Tue, 24 Jan 2023 11:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:52:45.401882
- Title: A two stages Deep Learning Architecture for Model Reduction of
Parametric Time-Dependent Problems
- Title(参考訳): パラメトリック時間依存問題のモデル削減のための2段階ディープラーニングアーキテクチャ
- Authors: Isabella Carla Gonnella, Martin W. Hess, Giovanni Stabile, Gianluigi
Rozza
- Abstract要約: パラメトリックな時間依存システムは、実現象をモデル化する上で非常に重要である。
本稿では,低計算時間でその一般化を実現するための一般的な2段階のディープラーニングフレームワークを提案する。
その結果, キャビティ内における非圧縮性ナビエ・ストークス方程式に適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parametric time-dependent systems are of a crucial importance in modeling
real phenomena, often characterized by non-linear behaviors too. Those
solutions are typically difficult to generalize in a sufficiently wide
parameter space while counting on limited computational resources available. As
such, we present a general two-stages deep learning framework able to perform
that generalization with low computational effort in time. It consists in a
separated training of two pipe-lined predictive models. At first, a certain
number of independent neural networks are trained with data-sets taken from
different subsets of the parameter space. Successively, a second predictive
model is specialized to properly combine the first-stage guesses and compute
the right predictions. Promising results are obtained applying the framework to
incompressible Navier-Stokes equations in a cavity (Rayleigh-Bernard cavity),
obtaining a 97% reduction in the computational time comparing with its
numerical resolution for a new value of the Grashof number.
- Abstract(参考訳): パラメトリックな時間依存系は実現象のモデル化において重要であり、しばしば非線形な振る舞いによって特徴づけられる。
これらの解は通常、利用可能な限られた計算資源を数えながら十分に広いパラメータ空間で一般化することが困難である。
そこで本研究では,低計算時間でその一般化を実現できる2段階の一般ディープラーニングフレームワークを提案する。
2つのパイプライン予測モデルの分離トレーニングで構成されている。
最初は、特定の数の独立したニューラルネットワークが、パラメータ空間の異なるサブセットから取られたデータセットで訓練される。
続いて、第2の予測モデルは、第1段階の推測を適切に組み合わせ、正しい予測を計算するために特化される。
この枠組みをキャビティ(レイリー・バーナードキャビティ)内の非圧縮性ナビエ・ストークス方程式に適用し、計算時間を97%削減し、グラショフ数の新たな値を求める数値解と比較する有望な結果を得た。
関連論文リスト
- Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Network [57.06026574261203]
長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
この結果は、グラディエント・Descentがある種のバランス性を維持するために努力していることを示す力学的な特徴に依拠している。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般的なパラメトリックカーネルを用いて、時間点プロセスの推論に効率的なソリューションを提供することを目的としている。
開発した解法は, 離散化されたイベントを利用した高速なL2勾配解法からなる。
その結果, 提案手法は, 最先端技術と比較してパターン遅延を推定できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Neural parameter calibration for large-scale multi-agent models [0.7734726150561089]
本稿では,ニューラルネットワークを用いてパラメータの精度の高い確率密度を求める手法を提案する。
2つの組み合わせは、非常に大きなシステムであっても、モデルパラメータの密度を素早く見積もることができる強力なツールを作成する。
論文 参考訳(メタデータ) (2022-09-27T17:36:26Z) - Deep Convolutional Architectures for Extrapolative Forecast in
Time-dependent Flow Problems [0.0]
深層学習技術は、対流に支配された問題に対するシステムの力学をモデル化するために用いられる。
これらのモデルは、PDEから得られた連続した時間ステップに対する高忠実度ベクトル解のシーケンスとして入力される。
ディープオートエンコーダネットワークのような非侵襲的な低次モデリング技術を用いて高忠実度スナップショットを圧縮する。
論文 参考訳(メタデータ) (2022-09-18T03:45:56Z) - Semi-Parametric Deep Neural Networks in Linear Time and Memory [18.572562224291477]
我々はSPINと呼ばれる汎用半パラメトリックニューラルネットワークを導入する。
私たちのアーキテクチャはポイントメソッドの誘導にインスパイアされ、データポイント間のクロスアテンションの新たな応用に依存しています。
提案手法は,既存の半パラメトリックモデルの計算要求を,データセットの範囲で最大1桁削減する。
論文 参考訳(メタデータ) (2022-05-24T01:42:46Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Hierarchical Deep Learning of Multiscale Differential Equation
Time-Steppers [5.6385744392820465]
本研究では,時間スケールの異なる範囲にわたる動的システムのフローマップを近似するために,ディープニューラルネットワークの時間ステップ階層を構築した。
結果のモデルは純粋にデータ駆動であり、マルチスケールのダイナミックスの特徴を活用する。
我々は,LSTM,貯水池計算,クロックワークRNNなどの最先端手法に対して,我々のアルゴリズムをベンチマークする。
論文 参考訳(メタデータ) (2020-08-22T07:16:53Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。