論文の概要: A Neural Network for the Identical Kuramoto Equation: Architectural Considerations and Performance Evaluation
- arxiv url: http://arxiv.org/abs/2509.14384v1
- Date: Wed, 17 Sep 2025 19:37:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.957961
- Title: A Neural Network for the Identical Kuramoto Equation: Architectural Considerations and Performance Evaluation
- Title(参考訳): 同定倉本方程式のニューラルネットワーク:構造的考察と性能評価
- Authors: Nishantak Panigrahi, Mayank Patwal,
- Abstract要約: 同一振動子倉本モデルから導かれる非局所保存法の解法を近似するためのディープニューラルネットワーク(DNN)の効率について検討する。
ネットワーク構成パラメータが収束特性に影響を与えることを示す。
我々は,一意的あるいは一意的な解を扱う際に,標準フィードフォワードアーキテクチャの基本的限界を特定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the efficiency of Deep Neural Networks (DNNs) to approximate the solution of a nonlocal conservation law derived from the identical-oscillator Kuramoto model, focusing on the evaluation of an architectural choice and its impact on solution accuracy based on the energy norm and computation time. Through systematic experimentation, we demonstrate that network configuration parameters-specifically, activation function selection (tanh vs. sin vs. ReLU), network depth (4-8 hidden layers), width (64-256 neurons), and training methodology (collocation points, epoch count)-significantly influence convergence characteristics. We observe that tanh activation yields stable convergence across configurations, whereas sine activation can attain marginally lower errors and training times in isolated cases, but occasionally produce nonphysical artefacts. Our comparative analysis with traditional numerical methods shows that optimally configured DNNs offer competitive accuracy with notably different computational trade-offs. Furthermore, we identify fundamental limitations of standard feed-forward architectures when handling singular or piecewise-constant solutions, providing empirical evidence that such networks inherently oversmooth sharp features due to the natural function space limitations of standard activation functions. This work contributes to the growing body of research on neural network-based scientific computing by providing practitioners with empirical guidelines for DNN implementation while illuminating fundamental theoretical constraints that must be overcome to expand their applicability to more challenging physical systems with discontinuities.
- Abstract(参考訳): 本稿では,同一振動子倉本モデルから導かれる非局所保存法の解を近似するディープニューラルネットワーク(DNN)の有効性について検討し,エネルギーノルムと計算時間に基づくアーキテクチャ選択の評価と解の精度への影響に着目した。
系統的な実験により,ネットワーク構成パラメータ,アクティベーション関数の選択(tanh vs. sin vs. ReLU),ネットワーク深さ(4-8層),幅(64-256ニューロン),トレーニング手法(座標点,エポック数)が収束特性に大きな影響を与えることを示した。
タンの活性化によって構成が安定に収束するのに対し、正弦の活性化は孤立した場合の誤差や訓練時間を極端に低くすることができるが、時として非物理的人工物を生成することがある。
従来の数値法との比較分析により、最適に構成されたDNNは、特に異なる計算トレードオフを持つ競合精度を提供することが示された。
さらに,標準活性化関数の自然関数空間制限により,これらのネットワークが本質的に急激な特徴を過度に過度に表現する経験的証拠を提供する。
この研究は、DNN実装の実証的なガイドラインを実践者に提供し、不連続性のあるより困難な物理システムに適用性を広げるために克服すべき基本的な理論的制約を明るみに出すことによって、ニューラルネットワークベースの科学コンピューティングに関する研究の活発化に寄与する。
関連論文リスト
- Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Learnable Activation Functions in Physics-Informed Neural Networks for Solving Partial Differential Equations [0.0]
偏微分方程式(PDE)の解法として物理情報ニューラルネットワーク(PINN)が誕生した。
これらの制限は、急激な振動、鋭い勾配、複雑な境界挙動を含む問題の精度に影響を与える。
これらの課題に対する解決策として,学習可能なアクティベーション関数について検討する。
論文 参考訳(メタデータ) (2024-11-22T18:25:13Z) - SetPINNs: Set-based Physics-informed Neural Networks [31.193471532024407]
ローカル依存関係を効果的にキャプチャするフレームワークであるSetPINNを紹介する。
ドメインを集合に分割して、物理法則を同時に適用しながら、局所的な依存関係をモデル化します。
合成および実世界のタスクの実験では、精度、効率、堅牢性が改善された。
論文 参考訳(メタデータ) (2024-09-30T11:41:58Z) - Neural Network with Local Converging Input (NNLCI) for Supersonic Flow
Problems with Unstructured Grids [0.9152133607343995]
非構造データを用いた高忠実度予測のための局所収束入力(NNLCI)を用いたニューラルネットワークを開発した。
また, NNLCI法を用いて, バンプを有するチャネル内の超音速流の可視化を行った。
論文 参考訳(メタデータ) (2023-10-23T19:03:37Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。