論文の概要: Complex Physics-Informed Neural Network
- arxiv url: http://arxiv.org/abs/2502.04917v2
- Date: Mon, 09 Jun 2025 08:48:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:09.836648
- Title: Complex Physics-Informed Neural Network
- Title(参考訳): 複雑な物理インフォームドニューラルネットワーク
- Authors: Chenhao Si, Ming Yan, Xin Li, Zhihong Xia,
- Abstract要約: compleX-PINNは、学習可能なアクティベーション機能を備えた物理インフォームドニューラルネットワーク(PINN)アーキテクチャである。
その結果,コンプレックス-PINNは精度が大幅に向上し,精度も桁違いに向上することがわかった。
- 参考スコア(独自算出の注目度): 15.54119928149117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose compleX-PINN, a novel physics-informed neural network (PINN) architecture incorporating a learnable activation function inspired by the Cauchy integral theorem. By optimizing the activation parameters, compleX-PINN achieves high accuracy with just a single hidden layer. Empirically, we demonstrate that compleX-PINN solves high-dimensional problems that pose significant challenges for PINNs. Our results show that compleX-PINN consistently achieves substantially greater precision, often improving accuracy by an order of magnitude, on these complex tasks.
- Abstract(参考訳): コーシー積分定理にインスパイアされた学習可能な活性化関数を組み込んだ新しい物理インフォームドニューラルネットワーク(PINN)アーキテクチャであるCompleX-PINNを提案する。
アクティベーションパラメータを最適化することにより、CompleX-PINNは単一の隠蔽層で高い精度を達成する。
実験により,compleX-PINNはPINNにとって重要な課題となる高次元問題の解決を実証する。
以上の結果から,compleX-PINNは従来よりはるかに精度が高く,複雑なタスクでは桁違いの精度が向上することが示唆された。
関連論文リスト
- Advanced Physics-Informed Neural Network with Residuals for Solving Complex Integral Equations [0.13499500088995461]
RISNは、幅広い積分方程式と積分微分方程式を解くために設計された、新しいニューラルネットワークアーキテクチャである。
RISNは残差接続を高精度な数値法と統合する。
RISNは古典的なPINNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-01-22T19:47:03Z) - Improved physics-informed neural network in mitigating gradient related failures [11.356695216531328]
物理インフォームドニューラルネットワーク(PINN)は、高度なデータ駆動技術で基本的な物理原理を統合する。
PINNは勾配流の剛性に悩まされ、予測能力が制限される。
本稿では,勾配関連障害を軽減するために改良されたPINNを提案する。
論文 参考訳(メタデータ) (2024-07-28T07:58:10Z) - Element-wise Multiplication Based Deeper Physics-Informed Neural Networks [1.8554335256160261]
PINNは偏微分方程式(PDE)を解くための有望な枠組みである
表現力の欠如と病理疾患は、複雑なPDEにPINNを適用するのを防ぐのに役立つ。
本稿では,これらの問題を解決するために,より深い物理インフォームドニューラルネットワーク(Deeper-PINN)を提案する。
論文 参考訳(メタデータ) (2024-06-06T15:27:52Z) - FastVPINNs: Tensor-Driven Acceleration of VPINNs for Complex Geometries [4.5594104437122684]
変分物理学情報ニューラルネットワーク(VPINN)は偏微分方程式の解法として変分損失関数を用いる。
FastVPINNは、従来のhp-VPINNと比較して、エポックあたりの平均トレーニング時間を100倍に短縮する。
論文 参考訳(メタデータ) (2024-04-18T10:21:28Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - A Dimension-Augmented Physics-Informed Neural Network (DaPINN) with High
Level Accuracy and Efficiency [0.20391237204597357]
物理インフォームドニューラルネットワーク(PINN)は様々な分野に広く応用されている。
本稿では,新しい次元拡張物理インフォームドニューラルネットワーク(DaPINN)を提案する。
DaPINNは同時に、PINNの精度と効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-10-19T15:54:37Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。