論文の概要: Complex Physics-Informed Neural Network
- arxiv url: http://arxiv.org/abs/2502.04917v1
- Date: Fri, 07 Feb 2025 13:36:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:57:50.310224
- Title: Complex Physics-Informed Neural Network
- Title(参考訳): 複雑な物理インフォームドニューラルネットワーク
- Authors: Chenhao Si, Ming Yan, Xin Li, Zhihong Xia,
- Abstract要約: compleX-PINNは、コーシー積分定理にインスパイアされた学習可能なアクティベーション関数を含む新しい物理インフォームドニューラルネットワーク(PINN)アーキテクチャである。
実証的な結果から、CompleX-PINNは従来のPINNが苦戦する問題を効果的に解決し、しばしば桁違いに精度を向上することを示した。
- 参考スコア(独自算出の注目度): 15.54119928149117
- License:
- Abstract: We propose compleX-PINN, a novel physics-informed neural network (PINN) architecture that incorporates a learnable activation function inspired by Cauchy integral theorem. By learning the parameters of the activation function, compleX-PINN achieves high accuracy with just a single hidden layer. Empirical results show that compleX-PINN effectively solves problems where traditional PINNs struggle and consistently delivers significantly higher precision, often by an order of magnitude.
- Abstract(参考訳): コーシー積分定理にインスパイアされた学習可能な活性化関数を組み込んだ新しい物理インフォームドニューラルネットワーク(PINN)アーキテクチャであるcompleX-PINNを提案する。
アクティベーション関数のパラメータを学習することにより、CompleX-PINNは単一の隠蔽層で高い精度を達成する。
実証的な結果から、CompleX-PINNは従来のPINNが苦戦する問題を効果的に解決し、しばしば桁違いに精度を向上することを示した。
関連論文リスト
- Improved physics-informed neural network in mitigating gradient related failures [11.356695216531328]
物理インフォームドニューラルネットワーク(PINN)は、高度なデータ駆動技術で基本的な物理原理を統合する。
PINNは勾配流の剛性に悩まされ、予測能力が制限される。
本稿では,勾配関連障害を軽減するために改良されたPINNを提案する。
論文 参考訳(メタデータ) (2024-07-28T07:58:10Z) - Element-wise Multiplication Based Deeper Physics-Informed Neural Networks [1.8554335256160261]
PINNは偏微分方程式(PDE)を解くための有望な枠組みである
表現力の欠如と病理疾患は、複雑なPDEにPINNを適用するのを防ぐのに役立つ。
本稿では,これらの問題を解決するために,より深い物理インフォームドニューラルネットワーク(Deeper-PINN)を提案する。
論文 参考訳(メタデータ) (2024-06-06T15:27:52Z) - FastVPINNs: Tensor-Driven Acceleration of VPINNs for Complex Geometries [4.5594104437122684]
変分物理学情報ニューラルネットワーク(VPINN)は偏微分方程式の解法として変分損失関数を用いる。
FastVPINNは、従来のhp-VPINNと比較して、エポックあたりの平均トレーニング時間を100倍に短縮する。
論文 参考訳(メタデータ) (2024-04-18T10:21:28Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - A Dimension-Augmented Physics-Informed Neural Network (DaPINN) with High
Level Accuracy and Efficiency [0.20391237204597357]
物理インフォームドニューラルネットワーク(PINN)は様々な分野に広く応用されている。
本稿では,新しい次元拡張物理インフォームドニューラルネットワーク(DaPINN)を提案する。
DaPINNは同時に、PINNの精度と効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-10-19T15:54:37Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - On the eigenvector bias of Fourier feature networks: From regression to
solving multi-scale PDEs with physics-informed neural networks [0.0]
ニューラルネットワーク(PINN)は、目標関数を近似する場合には、高周波またはマルチスケールの特徴を示す。
マルチスケールなランダムな観測機能を備えた新しいアーキテクチャを構築し、そのような座標埋め込み層が堅牢で正確なPINNモデルにどのように結びつくかを正当化します。
論文 参考訳(メタデータ) (2020-12-18T04:19:30Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。