論文の概要: Deep learning soliton dynamics and complex potentials recognition for 1D
and 2D PT-symmetric saturable nonlinear Schr\"odinger equations
- arxiv url: http://arxiv.org/abs/2310.02276v1
- Date: Fri, 29 Sep 2023 14:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 04:57:46.217952
- Title: Deep learning soliton dynamics and complex potentials recognition for 1D
and 2D PT-symmetric saturable nonlinear Schr\"odinger equations
- Title(参考訳): 1次元および2次元pt対称飽和非線形schr\"odinger方程式のディープラーニングソリトンダイナミクスと複素ポテンシャル認識
- Authors: Jin Song, Zhenya Yan
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)を拡張して,データ駆動型定常ソリトンと2次元飽和非線形シュリンガー方程式の非定常ソリトンを学習する。
- 参考スコア(独自算出の注目度): 0.43512163406552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we firstly extend the physics-informed neural networks (PINNs)
to learn data-driven stationary and non-stationary solitons of 1D and 2D
saturable nonlinear Schr\"odinger equations (SNLSEs) with two fundamental
PT-symmetric Scarf-II and periodic potentials in optical fibers. Secondly, the
data-driven inverse problems are studied for PT-symmetric potential functions
discovery rather than just potential parameters in the 1D and 2D SNLSEs.
Particularly, we propose a modified PINNs (mPINNs) scheme to identify directly
the PT potential functions of the 1D and 2D SNLSEs by the solution data. And
the inverse problems about 1D and 2D PT -symmetric potentials depending on
propagation distance z are also investigated using mPINNs method. We also
identify the potential functions by the PINNs applied to the stationary
equation of the SNLSE. Furthermore, two network structures are compared under
different parameter conditions such that the predicted PT potentials can
achieve the similar high accuracy. These results illustrate that the
established deep neural networks can be successfully used in 1D and 2D SNLSEs
with high accuracies. Moreover, some main factors affecting neural networks
performance are discussed in 1D and 2D PT Scarf-II and periodic potentials,
including activation functions, structures of the networks, and sizes of the
training data. In particular, twelve different nonlinear activation functions
are in detail analyzed containing the periodic and non-periodic functions such
that it is concluded that selecting activation functions according to the form
of solution and equation usually can achieve better effect.
- Abstract(参考訳): 本稿ではまず,2つの基本PT対称Scarf-IIと周期ポテンシャルを持つ1次元および2次元飽和非線形Schr\"odinger equations (SNLSEs)のデータ駆動型定常ソリトンと非定常ソリトンを学習するために,物理インフォームニューラルネットワーク(PINN)を拡張した。
第2に、1Dおよび2D SNLSEのポテンシャルパラメータだけでなく、PT対称ポテンシャル関数探索のためのデータ駆動逆問題について検討する。
特に, 1d および 2d の snls の pt ポテンシャル関数を解法データで直接同定する修正 pinn (mpinns) スキームを提案する。
また, 伝搬距離zに依存する1次元および2次元PT対称ポテンシャルに関する逆問題についても, mPINNs法を用いて検討した。
また,SNLSEの定常方程式に適用したPINNによるポテンシャル関数の同定を行った。
さらに、2つのネットワーク構造を異なるパラメータ条件下で比較し、予測されたPT電位が同様の高精度を実現する。
これらの結果は、確立された深層ニューラルネットワークを高い精度で1次元および2次元のsnlsでうまく使用できることを示す。
さらに, ニューラルネットワークの性能に影響を与える要因として, 活性化関数, ネットワーク構造, トレーニングデータのサイズなど, 1dおよび2d pt-iiおよび周期電位について考察した。
特に、12の異なる非線形活性化関数は周期関数と非周期関数を含む詳細に解析され、解と方程式の形式に従って活性化関数を選択するとより良い効果が得られると結論づけられる。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Data-driven 2D stationary quantum droplets and wave propagations in the amended GP equation with two potentials via deep neural networks learning [0.3683202928838613]
2次元(2次元)定常量子滴(QD)を解くための体系的深層学習手法を開発する。
2次元修正グロス・ピタエフスキー方程式の波動伝播について,リー・フン・ヤン補正と2種類のポテンシャルを用いて検討した。
学習された定常QDは、物理学インフォームドニューラルネットワーク(PINN)の初期値条件として使われ、ある時空領域における彼らの進化を探索する。
論文 参考訳(メタデータ) (2024-09-04T00:01:15Z) - Two-stage initial-value iterative physics-informed neural networks for simulating solitary waves of nonlinear wave equations [12.702685828829201]
独立波動計算のための2段階初期値反復型ニューラルネットワーク(IINN)を提案する。
提案手法は,様々な非線形波動方程式の解の学習に有効である。
論文 参考訳(メタデータ) (2024-09-02T10:00:02Z) - Exploring Linear Feature Disentanglement For Neural Networks [63.20827189693117]
Sigmoid、ReLU、Tanhなどの非線形活性化関数は、ニューラルネットワーク(NN)において大きな成功を収めた。
サンプルの複雑な非線形特性のため、これらの活性化関数の目的は、元の特徴空間から線形分離可能な特徴空間へサンプルを投影することである。
この現象は、現在の典型的なNNにおいて、すべての特徴がすべての非線形関数によって変換される必要があるかどうかを探求することに興味をそそる。
論文 参考訳(メタデータ) (2022-03-22T13:09:17Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Symmetry-via-Duality: Invariant Neural Network Densities from
Parameter-Space Correlators [0.0]
ネットワーク密度の対称性は、ネットワーク相関関数の二重計算によって決定できる。
初期密度における対称性の量は、Fashion-MNISTで訓練されたネットワークの精度に影響を与えることを示した。
論文 参考訳(メタデータ) (2021-06-01T18:00:06Z) - On the eigenvector bias of Fourier feature networks: From regression to
solving multi-scale PDEs with physics-informed neural networks [0.0]
ニューラルネットワーク(PINN)は、目標関数を近似する場合には、高周波またはマルチスケールの特徴を示す。
マルチスケールなランダムな観測機能を備えた新しいアーキテクチャを構築し、そのような座標埋め込み層が堅牢で正確なPINNモデルにどのように結びつくかを正当化します。
論文 参考訳(メタデータ) (2020-12-18T04:19:30Z) - Data-driven rogue waves and parameter discovery in the defocusing NLS
equation with a potential using the PINN deep learning [7.400475825464313]
我々は, 多層PINN深層学習法を用いて, 時間依存性電位を持つ非集束非線形シュレーディンガー方程式(NLS)のデータ駆動ローグ波の解を研究する。
結果は、深層学習ニューラルネットワークの研究におけるポテンシャルを持つ脱焦点NSS方程式の不正な波の解をさらに議論するのに有用である。
論文 参考訳(メタデータ) (2020-12-18T00:09:21Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。