論文の概要: Quasi-optimal $hp$-finite element refinements towards singularities via
deep neural network prediction
- arxiv url: http://arxiv.org/abs/2209.05844v1
- Date: Tue, 13 Sep 2022 09:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 13:17:04.937750
- Title: Quasi-optimal $hp$-finite element refinements towards singularities via
deep neural network prediction
- Title(参考訳): 準最適$hp$-finite要素の深部ニューラルネットワーク予測による特異点への改良
- Authors: Tomasz Sluzalec, Rafal Grzeszczuk, Sergio Rojas, Witold Dzwinel,
Maciej Paszynski
- Abstract要約: 与えられた計算問題に対して準最適$hp$-refinementsを予測するために、ディープニューラルネットワークエキスパートを構築する方法を示す。
トレーニングには2グリッドパラダイムの自己適応型$hp$-FEMアルゴリズムを用いる。
自己適応型$hp$-FEMによる指数収束は、適切に訓練されたDNN専門家と改良を続ければ維持できることを示す。
- 参考スコア(独自算出の注目度): 0.3149883354098941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show how to construct the deep neural network (DNN) expert to predict
quasi-optimal $hp$-refinements for a given computational problem. The main idea
is to train the DNN expert during executing the self-adaptive $hp$-finite
element method ($hp$-FEM) algorithm and use it later to predict further $hp$
refinements. For the training, we use a two-grid paradigm self-adaptive
$hp$-FEM algorithm. It employs the fine mesh to provide the optimal $hp$
refinements for coarse mesh elements. We aim to construct the DNN expert to
identify quasi-optimal $hp$ refinements of the coarse mesh elements. During the
training phase, we use the direct solver to obtain the solution for the fine
mesh to guide the optimal refinements over the coarse mesh element. After
training, we turn off the self-adaptive $hp$-FEM algorithm and continue with
quasi-optimal refinements as proposed by the DNN expert trained. We test our
method on three-dimensional Fichera and two-dimensional L-shaped domain
problems. We verify the convergence of the numerical accuracy with respect to
the mesh size. We show that the exponential convergence delivered by the
self-adaptive $hp$-FEM can be preserved if we continue refinements with a
properly trained DNN expert. Thus, in this paper, we show that from the
self-adaptive $hp$-FEM it is possible to train the DNN expert the location of
the singularities, and continue with the selection of the quasi-optimal $hp$
refinements, preserving the exponential convergence of the method.
- Abstract(参考訳): 我々は、与えられた計算問題に対して準最適$hp$-refinementsを予測するために、ディープニューラルネットワーク(DNN)の専門家を構築する方法を示す。
主なアイデアは、自己適応型$hp$-finite element method(hp$-fem)アルゴリズムの実行中にdnn専門家を訓練し、それを使用してさらに$hp$リファインメントを予測することである。
トレーニングには2グリッドパラダイムの自己適応型$hp$-FEMアルゴリズムを用いる。
細かなメッシュを使用して、粗いメッシュ要素に対して最適な$hp$リファインメントを提供する。
我々は、粗いメッシュ要素の準最適$hp$精製を識別するためにDNNエキスパートを構築することを目指している。
トレーニングフェーズでは, 直接解法を用いて微細メッシュの解を求め, 粗いメッシュ素子上での最適精細化を導出する。
トレーニング後、自己適応型の$hp$-FEMアルゴリズムをオフにし、DNNの専門家が提案した準最適改善を継続する。
本手法は3次元フィチェラと2次元L字領域問題に対して検証する。
メッシュサイズに対する数値的精度の収束性を検証する。
自己適応型$hp$-FEMによる指数収束は、適切に訓練されたDNN専門家と改良を続ければ維持できることを示す。
そこで,本稿では,自己適応型$hp$-FEMから,DNNの専門家に特異点の位置を訓練し,準最適$hp$精製法の選択を継続し,指数収束性を保つことができることを示す。
関連論文リスト
- Efficient k-Nearest-Neighbor Machine Translation with Dynamic Retrieval [49.825549809652436]
$k$NN-MTはドメイン固有の翻訳知識を保持するために外部データストアを構築する。
適応検索(k$NN-MT-AR)は、$lambda$を動的に推定し、$lambda$が固定しきい値以下であれば$k$NN検索をスキップする。
本稿では,バニラ$k$NN-MTを大幅に拡張した動的検索(k$NN-MT-DR)を提案する。
論文 参考訳(メタデータ) (2024-06-10T07:36:55Z) - A multiobjective continuation method to compute the regularization path of deep neural networks [1.3654846342364308]
数値効率を保証し、モデルの解釈性を改善し、堅牢性を向上させるため、ディープニューラルネットワーク(DNN)では、スパシティは高い特徴である。
本稿では,数百万のパラメータを持つ高次元勾配に対して,上述の目的に対するスパースフロント全体を極めて効率的な方法で実現するアルゴリズムを提案する。
正規化パスの知識がネットワークパラメトリゼーションを十分に一般化することを示す。
論文 参考訳(メタデータ) (2023-08-23T10:08:52Z) - Neural Greedy Pursuit for Feature Selection [72.4121881681861]
我々は,非線形予測問題に対する$P$入力機能のうち,$N$重要な特徴を選択するための欲求アルゴリズムを提案する。
ニューラルネットワークをアルゴリズムの予測子として使用し、損失を計算します。
論文 参考訳(メタデータ) (2022-07-19T16:39:16Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - Consistent Sparse Deep Learning: Theory and Computation [11.24471623055182]
スパース深層学習ネットワーク(DNN)を学習するための頻繁な方法を提案する。
提案手法は大規模ネットワーク圧縮や高次元非線形変数選択に非常に有効である。
論文 参考訳(メタデータ) (2021-02-25T23:31:24Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Improve the Robustness and Accuracy of Deep Neural Network with
$L_{2,\infty}$ Normalization [0.0]
ディープニューラルネットワーク(DNN)の堅牢性と精度は、$L_2,infty$正規化を導入することで向上した。
L_2,infty$正規化は、DNN関数のポリヘドロングラフの隣接する2つの面の間の大きな二面角をもたらすことが証明されている。
論文 参考訳(メタデータ) (2020-10-10T05:45:45Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches [0.40611352512781856]
適応フィルタのスタックとして多層ニューラルネットワークを考えることが可能であることを示す。
我々は,BPで発生した行動の悪影響を予測し,その発生前にも予測し,よりよいアルゴリズムを導入する。
我々の実験は、ディープニューラルネットワークのトレーニングにおけるアルゴリズムの有用性を示す。
論文 参考訳(メタデータ) (2020-03-11T08:45:36Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。