論文の概要: Physics-informed neural wavefields with Gabor basis functions
- arxiv url: http://arxiv.org/abs/2310.10602v1
- Date: Mon, 16 Oct 2023 17:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 12:37:40.306895
- Title: Physics-informed neural wavefields with Gabor basis functions
- Title(参考訳): Gabor基底関数を持つ物理インフォームドニューラルネットワーク
- Authors: Tariq Alkhalifah and Xinquan Huang
- Abstract要約: 本稿では,ニューラルネットワークのウェーブフィールド解の効率性と精度を高める手法を提案する。
具体的には、ヘルムホルツ方程式に対して、最後の隠れ層を構成するGabor層で完全に連結されたニューラルネットワークモデルを拡張する。
ガボル関数のこれらの/係数は、非線形活性化関数を含む以前の隠れ層から学習される。
- 参考スコア(独自算出の注目度): 4.07926531936425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Physics-Informed Neural Networks (PINNs) have gained significant
attention for their versatile interpolation capabilities in solving partial
differential equations (PDEs). Despite their potential, the training can be
computationally demanding, especially for intricate functions like wavefields.
This is primarily due to the neural-based (learned) basis functions, biased
toward low frequencies, as they are dominated by polynomial calculations, which
are not inherently wavefield-friendly. In response, we propose an approach to
enhance the efficiency and accuracy of neural network wavefield solutions by
modeling them as linear combinations of Gabor basis functions that satisfy the
wave equation. Specifically, for the Helmholtz equation, we augment the fully
connected neural network model with an adaptable Gabor layer constituting the
final hidden layer, employing a weighted summation of these Gabor neurons to
compute the predictions (output). These weights/coefficients of the Gabor
functions are learned from the previous hidden layers that include nonlinear
activation functions. To ensure the Gabor layer's utilization across the model
space, we incorporate a smaller auxiliary network to forecast the center of
each Gabor function based on input coordinates. Realistic assessments showcase
the efficacy of this novel implementation compared to the vanilla PINN,
particularly in scenarios involving high-frequencies and realistic models that
are often challenging for PINNs.
- Abstract(参考訳): 近年,偏微分方程式 (PDE) の解法における多目的補間能力について,物理情報ニューラルネットワーク (PINN) が注目されている。
その可能性にもかかわらず、トレーニングは特に波動場のような複雑な関数に対して、計算的に要求される。
これは主に、波動場に適さない多項式計算に支配されるため、低周波数に偏ったニューラルネットワーク(学習された)基底関数が原因である。
そこで本研究では,ニューラルネットワークの波動場解の効率と精度を,波動方程式を満たすガボール基底関数の線形結合としてモデル化する手法を提案する。
具体的には、ヘルムホルツ方程式のために、最終的な隠れ層を構成する適応可能なガボール層で完全連結ニューラルネットワークモデルを強化し、これらのガボールニューロンの重み付け和を用いて予測を計算する(アウトプット)。
ガボル関数のこれらの重み/係数は、非線形活性化関数を含む以前の隠れ層から学習される。
モデル空間全体のGabor層の利用を確保するため,入力座標に基づいて各Gabor関数の中心を予測するために,より小さな補助ネットワークを組み込んだ。
現実的な評価は、バニラPINNと比較してこの新しい実装の有効性を示しており、特にPINNにとってしばしば困難な高頻度および現実的なモデルを含むシナリオにおいてである。
関連論文リスト
- GaborPINN: Efficient physics informed neural networks using
multiplicative filtered networks [0.0]
物理インフォームドニューラルネットワーク(PINN)は、ニューラルネットワーク(NN)で表される機能的ウェーブフィールドソリューションを提供する
本稿では,学習における波動場の特徴のいくつかを組み込んだ乗算フィルタネットワークを用いた改良PINNを提案する。
提案手法は,従来のPINNと比較して,収束速度が最大2マグニチュード向上する。
論文 参考訳(メタデータ) (2023-08-10T19:51:00Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Towards a Foundation Model for Neural Network Wavefunctions [5.145741425164946]
本稿では,非相関で計算コストの低いHartree-Fock軌道を相関した高精度ニューラルネットワーク軌道にマッピングするニューラルネットワークアンサッツを提案する。
このアンザッツは本質的に複数の化合物とジオメトリーにわたる単一波動関数を学習することができる。
論文 参考訳(メタデータ) (2023-03-17T16:03:10Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Hierarchical Spherical CNNs with Lifting-based Adaptive Wavelets for
Pooling and Unpooling [101.72318949104627]
本稿では, 階層型畳み込みニューラルネットワーク(HS-CNN)の新たな枠組みを提案し, プールやアンプールのための適応球面ウェーブレットを学習する。
LiftHS-CNNは、画像レベルのタスクとピクセルレベルのタスクの両方において、より効率的な階層的特徴学習を実現する。
論文 参考訳(メタデータ) (2022-05-31T07:23:42Z) - Deep Neural Network Classifier for Multi-dimensional Functional Data [4.340040784481499]
我々は,多次元関数型データを分類するFDNN(Functional Deep Neural Network)と呼ばれる新しい手法を提案する。
具体的には、将来のデータ関数のクラスラベルを予測するために使用されるトレーニングデータの原則コンポーネントに基づいて、ディープニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2022-05-17T19:22:48Z) - Deep neural networks for smooth approximation of physics with higher
order and continuity B-spline base functions [0.4588028371034407]
伝統的に、ニューラルネットワークは、与えられた物理現象を近似するために非線形活性化関数を使用する。
そこで本研究では, 物理量を滑らかなB-スプライン基底関数の線形結合として近似する手法を提案する。
物理場を近似する場合,我々のアプローチはより安価で正確であることを示す。
論文 参考訳(メタデータ) (2022-01-03T23:02:39Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - On the eigenvector bias of Fourier feature networks: From regression to
solving multi-scale PDEs with physics-informed neural networks [0.0]
ニューラルネットワーク(PINN)は、目標関数を近似する場合には、高周波またはマルチスケールの特徴を示す。
マルチスケールなランダムな観測機能を備えた新しいアーキテクチャを構築し、そのような座標埋め込み層が堅牢で正確なPINNモデルにどのように結びつくかを正当化します。
論文 参考訳(メタデータ) (2020-12-18T04:19:30Z) - Variational Monte Carlo calculations of $\mathbf{A\leq 4}$ nuclei with
an artificial neural-network correlator ansatz [62.997667081978825]
光核の基底状態波動関数をモデル化するためのニューラルネットワーク量子状態アンサッツを導入する。
我々は、Aleq 4$核の結合エネルギーと点核密度を、上位のピオンレス実効場理論から生じるものとして計算する。
論文 参考訳(メタデータ) (2020-07-28T14:52:28Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。