論文の概要: Subspace Decomposition based DNN algorithm for elliptic-type multi-scale
PDEs
- arxiv url: http://arxiv.org/abs/2112.06660v1
- Date: Fri, 10 Dec 2021 08:26:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 20:04:44.837660
- Title: Subspace Decomposition based DNN algorithm for elliptic-type multi-scale
PDEs
- Title(参考訳): 部分空間分解に基づく楕円型マルチスケールPDEのためのDNNアルゴリズム
- Authors: Xi-An Li, Zhi-Qin John Xu and Lei Zhang
- Abstract要約: サブスペース分解に基づくDNN(dubed SD$2$NN)アーキテクチャを,マルチスケールな問題に対して構築する。
SD$2$NNモデルに新しい三角運動関数が組み込まれている。
SD$2$NNモデルはMscaleDNNのような既存のモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 19.500646313633446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep learning algorithms demonstrate a great potential in scientific
computing, its application to multi-scale problems remains to be a big
challenge. This is manifested by the "frequency principle" that neural networks
tend to learn low frequency components first. Novel architectures such as
multi-scale deep neural network (MscaleDNN) were proposed to alleviate this
problem to some extent. In this paper, we construct a subspace decomposition
based DNN (dubbed SD$^2$NN) architecture for a class of multi-scale problems by
combining traditional numerical analysis ideas and MscaleDNN algorithms. The
proposed architecture includes one low frequency normal DNN submodule, and one
(or a few) high frequency MscaleDNN submodule(s), which are designed to capture
the smooth part and the oscillatory part of the multi-scale solutions,
respectively. In addition, a novel trigonometric activation function is
incorporated in the SD$^2$NN model. We demonstrate the performance of the
SD$^2$NN architecture through several benchmark multi-scale problems in regular
or irregular geometric domains. Numerical results show that the SD$^2$NN model
is superior to existing models such as MscaleDNN.
- Abstract(参考訳): ディープラーニングアルゴリズムは科学計算において大きな可能性を示しているが、そのマルチスケール問題への応用は依然として大きな課題である。
これは、ニューラルネットワークがまず低周波成分を学習する傾向がある"周波数原理"によって示される。
この問題をある程度緩和するために、マルチスケールディープニューラルネットワーク(MscaleDNN)のような新しいアーキテクチャが提案された。
本稿では,従来の数値解析手法とMscaleDNNアルゴリズムを組み合わせて,サブスペース分解に基づくDNN(dubed SD$^2$NN)アーキテクチャを構築した。
提案するアーキテクチャは、1つの低周波正規dnnサブモジュールと、1つの(または少数の)高周波mscalednnサブモジュールを含み、それぞれマルチスケールソリューションの滑らかな部分と振動部をキャプチャするように設計されている。
さらに、SD$^2$NNモデルには、新しい三角加速度活性化関数が組み込まれている。
我々はSD$^2$NNアーキテクチャの性能を、正規および不規則な幾何学領域における複数のベンチマークマルチスケール問題を通して示す。
SD$^2$NNモデルはMscaleDNNのような既存のモデルよりも優れていることを示す。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Deep Neural Network Solutions for Oscillatory Fredholm Integral
Equations [12.102640617194025]
近似解としてDNNを用いて方程式を解く数値解法を開発した。
次に、ニューラルネットワークのスペクトルバイアス問題を克服するために、多段階ディープラーニング(MGDL)モデルを提案する。
論文 参考訳(メタデータ) (2024-01-13T07:26:47Z) - Stacked tensorial neural networks for reduced-order modeling of a
parametric partial differential equation [0.0]
複数のTNNを大きなネットワークに融合させるディープニューラルネットワークアーキテクチャについて説明する。
このアーキテクチャを、3つの独立変数と3つのパラメータを持つパラメトリックPDE上で評価する。
論文 参考訳(メタデータ) (2023-12-21T21:44:50Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Multilevel Bayesian Deep Neural Networks [0.5892638927736115]
我々は、ディープニューラルネットワーク(DNN)、特にトレースクラスニューラルネットワーク(TNN)に関連付けられた推論について検討する。
TNN事前は無限個の隠れ単位を持つ関数上で定義され、有限個の隠れ単位を持つ強い収束近似を持つ。
本稿では,TNNの強い収束を利用して,これらのモデルにマルチレベルモンテカルロ(MLMC)を適用する。
論文 参考訳(メタデータ) (2022-03-24T09:49:27Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Joint Deep Reinforcement Learning and Unfolding: Beam Selection and
Precoding for mmWave Multiuser MIMO with Lens Arrays [54.43962058166702]
離散レンズアレイを用いたミリ波マルチユーザマルチインプット多重出力(MU-MIMO)システムに注目が集まっている。
本研究では、DLA を用いた mmWave MU-MIMO システムのビームプリコーディング行列の共同設計について検討する。
論文 参考訳(メタデータ) (2021-01-05T03:55:04Z) - Multi-scale Deep Neural Network (MscaleDNN) for Solving
Poisson-Boltzmann Equation in Complex Domains [12.09637784919702]
本稿では,周波数領域のラジアルスケーリングと,コンパクトなサポート付きアクティベーション関数を用いたマルチスケールディープニューラルネットワーク(MscaleDNN)を提案する。
その結果、MscaleDNNは複数のスケールで高速な均一収束を実現する。
論文 参考訳(メタデータ) (2020-07-22T05:28:03Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Fractional Deep Neural Network via Constrained Optimization [0.0]
本稿では,ディープニューラルネットワーク(DNN)のための新しいアルゴリズムフレームワークを提案する。
Fractional-DNNは、時間非線形常微分方程式(ODE)における分数の時間差分化と見なすことができる。
論文 参考訳(メタデータ) (2020-04-01T21:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。