論文の概要: Hyper-Reduced Autoencoders for Efficient and Accurate Nonlinear Model
Reductions
- arxiv url: http://arxiv.org/abs/2303.09630v1
- Date: Thu, 16 Mar 2023 20:18:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:27:05.657833
- Title: Hyper-Reduced Autoencoders for Efficient and Accurate Nonlinear Model
Reductions
- Title(参考訳): 効率良く高精度な非線形モデル低減のためのハイパーリデュードオートエンコーダ
- Authors: Jorio Cocola, John Tencer, Francesco Rizzi, Eric Parish, Patrick
Blonigan
- Abstract要約: 射影に基づくモデル順序の減少は、ゆっくりと減衰するコルモゴロフ n-幅の問題に対して最近提案されている。
これまで提案された手法の欠点は、高忠実度ソリューションスナップショット上でネットワークをトレーニングする際の潜在的に高い計算コストである。
我々は、高忠実度ソリューションスナップショットのサブサンプルバージョンのみにニューラルネットワークをトレーニングすることで、この欠点を克服する新しい手法を提案し、分析する。
- 参考スコア(独自算出の注目度): 1.0499611180329804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Projection-based model order reduction on nonlinear manifolds has been
recently proposed for problems with slowly decaying Kolmogorov n-width such as
advection-dominated ones. These methods often use neural networks for manifold
learning and showcase improved accuracy over traditional linear
subspace-reduced order models. A disadvantage of the previously proposed
methods is the potential high computational costs of training the networks on
high-fidelity solution snapshots. In this work, we propose and analyze a novel
method that overcomes this disadvantage by training a neural network only on
subsampled versions of the high-fidelity solution snapshots. This method
coupled with collocation-based hyper-reduction and Gappy-POD allows for
efficient and accurate surrogate models. We demonstrate the validity of our
approach on a 2d Burgers problem.
- Abstract(参考訳): 非線形多様体上の射影に基づくモデル次数減少は、アドベクションが支配するようなコルモゴロフ n-width がゆっくりと減衰する問題に対して最近提案されている。
これらの手法は、しばしばニューラルネットワークを多様体学習に使用し、従来の線形部分空間縮小順序モデルよりも精度の向上を示す。
前述した方法の欠点は、高忠実度ソリューションスナップショット上でネットワークをトレーニングする計算コストが潜在的に高いことである。
本研究では,高忠実度ソリューションスナップショットのサブサンプル版にのみニューラルネットワークをトレーニングすることにより,この欠点を克服する新しい手法を提案する。
この手法はコロケーションに基づく超減算とGappy-PODと組み合わせることで、効率的かつ正確なサロゲートモデルを実現する。
2d Burgers問題に対する我々のアプローチの有効性を示す。
関連論文リスト
- Transfer Learning on Multi-Dimensional Data: A Novel Approach to Neural Network-Based Surrogate Modeling [0.0]
畳み込みニューラルネットワーク(CNN)はそのようなサロゲートモデルの基礎として人気を集めている。
本稿では,$d$次元問題と$d-1$次元近似の両方に対する数値解の混合によるCNN代理モデルのトレーニングを提案する。
転送学習を用いて,2種類のデータに対して,高密度な完全畳み込みエンコーダ・デコーダCNNを学習する多相フローテスト問題に対するアプローチを実証する。
論文 参考訳(メタデータ) (2024-10-16T05:07:48Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Regularizing Deep Neural Networks with Stochastic Estimators of Hessian
Trace [1.933681537640272]
我々は,ヘッセンのトレースをペナルタイズすることで,ディープニューラルネットワークの新しい正規化手法を開発した。
実験により,本手法は既存の正則化器やデータ拡張法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-11T16:51:27Z) - Non-linear manifold ROM with Convolutional Autoencoders and Reduced
Over-Collocation method [0.0]
非アフィンパラメトリックな依存、非線形性、興味のモデルにおける対流支配的な規則は、ゆっくりとしたコルモゴロフ n-幅の崩壊をもたらす。
我々は,Carlbergらによって導入された非線形多様体法を,オーバーコロケーションの削減とデコーダの教師/学生による学習により実現した。
本研究では,2次元非線形保存法と2次元浅水モデルを用いて方法論を検証し,時間とともに動的に進化する純粋データ駆動型手法と長期記憶ネットワークとの比較を行った。
論文 参考訳(メタデータ) (2022-03-01T11:16:50Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - The Neural Network shifted-Proper Orthogonal Decomposition: a Machine
Learning Approach for Non-linear Reduction of Hyperbolic Equations [0.0]
本研究では,統計的学習フレームワークにおいて,正しい前処理変換を自動的に検出する問題にアプローチする。
純粋にデータ駆動方式により、線形部分空間操作の既存のアプローチを未知の対流場を持つ非線形双曲問題に一般化することができる。
提案アルゴリズムは、その性能をベンチマークするために単純なテストケースに対して検証され、その後、多相シミュレーションに成功している。
論文 参考訳(メタデータ) (2021-08-14T15:13:35Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。