論文の概要: HiDeNN-PGD: reduced-order hierarchical deep learning neural networks
- arxiv url: http://arxiv.org/abs/2105.06363v1
- Date: Thu, 13 May 2021 15:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 16:33:03.132731
- Title: HiDeNN-PGD: reduced-order hierarchical deep learning neural networks
- Title(参考訳): HiDeNN-PGD:低次階層型ディープラーニングニューラルネットワーク
- Authors: Lei Zhang (1 and 3), Ye Lu (2), Shaoqiang Tang (1) and Wing Kam Liu
(2) ((1) Peking University, Beijing, China, (2) Northwestern University,
Evanston, USA, (3) Visiting student, Department of Mechanical Engineering,
Northwestern University)
- Abstract要約: 本稿では階層型深層学習ニューラルネットワーク(hidenn)の固有一般化分解モデル(pgd)を提案する。
提案する hidenn-pgd は自由度が桁違いに小さいほど高い精度で動作し,大規模な工学的問題に対して高い精度で高速計算を実現する可能性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a proper generalized decomposition (PGD) based
reduced-order model of hierarchical deep-learning neural networks (HiDeNN). The
proposed HiDeNN-PGD method keeps both advantages of HiDeNN and PGD methods. The
automatic mesh adaptivity makes the HiDeNN-PGD more accurate than the finite
element method (FEM) and conventional PGD, using a fraction of the FEM degrees
of freedom. The accuracy and convergence of the method have been studied
theoretically and numerically, with a comparison to different methods,
including FEM, PGD, HiDeNN and Deep Neural Networks. In addition, we
theoretically showed that the PGD converges to FEM at increasing modes, and the
PGD error is a direct sum of the FEM error and the mode reduction error. The
proposed HiDeNN-PGD performs high accuracy with orders of magnitude fewer
degrees of freedom, which shows a high potential to achieve fast computations
with a high level of accuracy for large-size engineering problems.
- Abstract(参考訳): 本稿では階層型深層学習ニューラルネットワーク(hidenn)の固有一般化分解モデル(pgd)を提案する。
提案手法は HiDeNN-PGD 法と HiDeNN-PGD 法の両方の利点を保っている。
自動メッシュ適応により、HiDeNN-PGDは有限要素法(FEM)や従来のPGDよりも精度が高く、FEM自由度の一部を使用することができる。
この手法の精度と収束性は、fem, pgd, hidenn, deep neural networksなどの異なる手法と比較し、理論的および数値的に研究されている。
さらに, PGDはモード増加時にFEMに収束し, PGD誤差はFEM誤差とモード縮小誤差の直接和であることを示した。
提案する hidenn-pgd は自由度が桁違いに小さいほど高い精度で動作し,大規模な工学的問題に対して高い精度で高速計算を実現する可能性を示す。
関連論文リスト
- DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - FedDIP: Federated Learning with Extreme Dynamic Pruning and Incremental
Regularization [5.182014186927254]
大規模Deep Neural Networks(DNN)の分散トレーニングと推論にFL(Federated Learning)が成功している。
我々は、(i)動的プルーニングとエラーフィードバックを組み合わせて冗長な情報交換を排除する新しいFLフレームワーク(Coined FedDIP)にコントリビュートする。
我々は、FedDIPの収束解析と総合的な性能について報告し、最先端手法との比較評価を行う。
論文 参考訳(メタデータ) (2023-09-13T08:51:19Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - DDPG-Driven Deep-Unfolding with Adaptive Depth for Channel Estimation
with Sparse Bayesian Learning [23.158142411929322]
まず,異なる入力に対して適応的な深さを持つDDPG(Deep Deterministic Policy gradient)駆動のディープアンフォールディングの枠組みを開発する。
具体的には,大規模マルチインプットマルチアウトプットシステムにおけるチャネル推定問題に対処するために,このフレームワークを用いる。
論文 参考訳(メタデータ) (2022-01-20T22:35:42Z) - Research of Damped Newton Stochastic Gradient Descent Method for Neural
Network Training [6.231508838034926]
勾配降下(SGD)のような一階法は、最近ディープニューラルネットワーク(DNN)を訓練するための一般的な最適化方法です。
本稿では、平均二乗誤差(MSE)の回帰問題とクロスエントロピー損失(CEL)の分類問題に対するDNNの訓練方法として、DN-SGD(Damped Newton Descent)とGGD-DN(Gradient Descent Damped Newton)を提案する。
提案手法はパラメータのごく一部を正確に計算し,計算コストを大幅に削減し,sgdよりも高速かつ高精度な学習プロセスを実現する。
論文 参考訳(メタデータ) (2021-03-31T02:07:18Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Weak Form Theory-guided Neural Network (TgNN-wf) for Deep Learning of
Subsurface Single and Two-phase Flow [8.692803089714717]
弱形理論誘導ニューラルネットワーク(TgNN-wf)を提案する。
弱い形態では、PDEの高次微分は、積分バイパーツを実行することにより、テスト関数に転送することができる。
提案したTgNN-wfが強いTgNNよりも優れていることを示す数値ケースが2つある。
論文 参考訳(メタデータ) (2020-09-08T06:10:30Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。