論文の概要: Learning Discontinuous Galerkin Solutions to Elliptic Problems via Small Linear Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2502.08783v1
- Date: Wed, 12 Feb 2025 20:53:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:15.687685
- Title: Learning Discontinuous Galerkin Solutions to Elliptic Problems via Small Linear Convolutional Neural Networks
- Title(参考訳): 小線形畳み込みニューラルネットワークによる楕円問題に対する不連続なガレルキン解の学習
- Authors: Adrian Celaya, Yimo Wang, David Fuentes, Beatrice Riviere,
- Abstract要約: 線形畳み込みニューラルネットワークを用いてPDEに対する不連続なガレルキン解を学習するための2つの手法を提案する。
第一のアプローチは教師付きでラベル付きデータに依存しますが、第二のアプローチは教師なしで、いかなるトレーニングデータにも依存していません。
どちらの場合も、我々の手法は類似の数値ベースニューラルネットワークよりもかなり少ないパラメータを使用し、楕円問題に対する真とDGの解に匹敵する精度を示す。
- 参考スコア(独自算出の注目度): 1.124958340749622
- License:
- Abstract: In recent years, there has been an increasing interest in using deep learning and neural networks to tackle scientific problems, particularly in solving partial differential equations (PDEs). However, many neural network-based methods, such as physics-informed neural networks, depend on automatic differentiation and the sampling of collocation points, which can result in a lack of interpretability and lower accuracy compared to traditional numerical methods. To address this issue, we propose two approaches for learning discontinuous Galerkin solutions to PDEs using small linear convolutional neural networks. Our first approach is supervised and depends on labeled data, while our second approach is unsupervised and does not rely on any training data. In both cases, our methods use substantially fewer parameters than similar numerics-based neural networks while also demonstrating comparable accuracy to the true and DG solutions for elliptic problems.
- Abstract(参考訳): 近年,特に偏微分方程式(PDE)の解法において,深層学習やニューラルネットワークによる科学的問題への取り組みへの関心が高まっている。
しかし、物理インフォームドニューラルネットワークのような多くのニューラルネットワークベースの手法は、自動微分とコロケーション点のサンプリングに依存しており、従来の数値法に比べて解釈可能性の欠如と精度の低下をもたらす可能性がある。
この問題に対処するために,小さな線形畳み込みニューラルネットワークを用いて不連続なガレルキン解をPDEに学習する2つの手法を提案する。
第一のアプローチは教師付きでラベル付きデータに依存しますが、第二のアプローチは教師なしで、いかなるトレーニングデータにも依存していません。
どちらの場合も、我々の手法は類似の数値ベースニューラルネットワークよりもかなり少ないパラメータを使用し、楕円問題に対する真とDGの解に匹敵する精度を示す。
関連論文リスト
- Are Two Hidden Layers Still Enough for the Physics-Informed Neural Networks? [0.0]
本稿では,ニューラルネットワークを単一の隠蔽層で初期化し,訓練するための様々な手法と手法の開発について論じる。
提案手法は、分離可能な物理インフォームドニューラルネットワークアプローチを用いて、2次元問題に拡張されている。
論文 参考訳(メタデータ) (2024-12-26T14:30:54Z) - Newton Informed Neural Operator for Computing Multiple Solutions of Nonlinear Partials Differential Equations [3.8916312075738273]
非線形性に対処するNewton Informed Neural Operatorを提案する。
提案手法は,古典的ニュートン法を組み合わせ,適切な問題に対処し,一つの学習過程において複数の解を効率的に学習する。
論文 参考訳(メタデータ) (2024-05-23T01:52:54Z) - What to Do When Your Discrete Optimization Is the Size of a Neural
Network? [24.546550334179486]
ニューラルネットワークを用いた機械学習アプリケーションは、離散最適化問題を解くことを含む。
離散的な設定で使用される古典的なアプローチは、大きなニューラルネットワークに対してうまくスケールしない。
連続経路(CP)法は,前者およびモンテカルロ法(MC)法を純粋に表現し,後者を表現している。
論文 参考訳(メタデータ) (2024-02-15T21:57:43Z) - Solutions to Elliptic and Parabolic Problems via Finite Difference Based Unsupervised Small Linear Convolutional Neural Networks [1.124958340749622]
線形畳み込みニューラルネットワークを用いてPDEの有限差分解を直接推定するために、トレーニングデータを必要としない完全に教師なしのアプローチを提案する。
提案手法は、類似の有限差分に基づくアプローチよりもパラメータを著しく少なくし、また、いくつかの選択された楕円型および放物型問題に対する真の解に匹敵する精度を示す。
論文 参考訳(メタデータ) (2023-11-01T03:15:10Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。