論文の概要: Depth separation for reduced deep networks in nonlinear model reduction:
Distilling shock waves in nonlinear hyperbolic problems
- arxiv url: http://arxiv.org/abs/2007.13977v1
- Date: Tue, 28 Jul 2020 03:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 03:13:21.820251
- Title: Depth separation for reduced deep networks in nonlinear model reduction:
Distilling shock waves in nonlinear hyperbolic problems
- Title(参考訳): 非線形モデル低減における深層ネットワークの深さ分離:非線形双曲問題における衝撃波の蒸留
- Authors: Donsub Rim, Luca Venturi, Joan Bruna, Benjamin Peherstorfer
- Abstract要約: 我々は、ディープニューラルネットワークとして定式化された古典的リダクションモデルの一般化である、リダクション・ディープ・ネットワークを導入する。
パラメタライズされた双曲偏微分方程式のディープ・ネットワーク近似解が得られた。
また、古典的縮小モデルは、関連するコルモゴロフ$N$-widthsの下位境界を確立することにより、指数関数的に悪い近似率が得られることを示す。
- 参考スコア(独自算出の注目度): 32.48387809308625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical reduced models are low-rank approximations using a fixed basis
designed to achieve dimensionality reduction of large-scale systems. In this
work, we introduce reduced deep networks, a generalization of classical reduced
models formulated as deep neural networks. We prove depth separation results
showing that reduced deep networks approximate solutions of parametrized
hyperbolic partial differential equations with approximation error $\epsilon$
with $\mathcal{O}(|\log(\epsilon)|)$ degrees of freedom, even in the nonlinear
setting where solutions exhibit shock waves. We also show that classical
reduced models achieve exponentially worse approximation rates by establishing
lower bounds on the relevant Kolmogorov $N$-widths.
- Abstract(参考訳): 古典的還元モデルは、大規模システムの次元的還元を実現するために設計された固定基底を用いた低ランク近似である。
本研究では,ディープニューラルネットワークとして定式化された古典的縮小モデルの一般化である還元型ディープネットワークを提案する。
深さ分離の結果から, 近似誤差$\epsilon$ と $\mathcal{o}(|\log(\epsilon)|)$ のパラメトリズド双曲型偏微分方程式の解は, 解が衝撃波を示す非線形環境においても近似解に近いことがわかった。
また、古典還元モデルでは、関連するコルモゴロフ$n$-widthsの下限を確立することで指数関数的に悪い近似率が得られることを示した。
関連論文リスト
- Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Symplectic model reduction of Hamiltonian systems using data-driven
quadratic manifolds [0.559239450391449]
高次元ハミルトニアン系のシンプレクティックモデル還元のための2つの新しいアプローチを提案する。
提案手法の中心に位置する状態近似への二次項の追加により、本質的な低次元性を表現することができる。
論文 参考訳(メタデータ) (2023-05-24T18:23:25Z) - Approximation results for Gradient Descent trained Shallow Neural
Networks in $1d$ [0.0]
広範に研究されているニューラルネットワークの2つの側面は、関数近似特性と勾配降下法によるトレーニングである。
現在の文献の大半では、これらの重量は完全にまたは部分的に手作りであるが、必ずしも実用的性能ではない。
本稿では、これらの2つの要求のバランスをとり、勾配降下による非重み付け最適化とともに、ニューラルネットワークの近似結果を1d$で提供する。
論文 参考訳(メタデータ) (2022-09-17T20:26:19Z) - A variational neural network approach for glacier modelling with
nonlinear rheology [1.4438155481047366]
まず、非ニュートン流モデルの解を境界制約付き変分積分の最小化器に定式化する。
次に、損失関数が変分積分と混合境界条件からのソフト制約であるディープニューラルネットワークにより解を近似する。
実世界のスケーリングにおける不安定性に対処するため,ネットワークの入力を第1層で再正規化し,各境界に対する正規化係数のバランスをとる。
論文 参考訳(メタデータ) (2022-09-05T18:23:59Z) - Nonlinear proper orthogonal decomposition for convection-dominated flows [0.0]
そこで本稿では,自動エンコーダと長期記憶ネットワークを組み合わせたエンドツーエンドのガレルキンフリーモデルを提案する。
我々の手法は精度を向上するだけでなく、トレーニングやテストの計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2021-10-15T18:05:34Z) - Revisit Geophysical Imaging in A New View of Physics-informed Generative
Adversarial Learning [2.12121796606941]
完全な波形反転は高分解能地下モデルを生成する。
最小二乗関数を持つFWIは、局所ミニマ問題のような多くの欠点に悩まされる。
偏微分方程式とニューラルネットワークを用いた最近の研究は、2次元FWIに対して有望な性能を示している。
本稿では,波動方程式を識別ネットワークに統合し,物理的に一貫したモデルを正確に推定する,教師なし学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-09-23T15:54:40Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Optimizing Mode Connectivity via Neuron Alignment [84.26606622400423]
経験的に、損失関数の局所ミニマは、損失がほぼ一定であるようなモデル空間の学習曲線で接続することができる。
本稿では,ネットワークの重み変化を考慮し,対称性がランドスケープ・コネクティビティに与える影響を明らかにするための,より一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-09-05T02:25:23Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。