論文の概要: Data-driven discovery of B\"acklund transforms and soliton evolution
equations via deep neural network learning schemes
- arxiv url: http://arxiv.org/abs/2111.09489v1
- Date: Thu, 18 Nov 2021 02:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 15:12:08.943466
- Title: Data-driven discovery of B\"acklund transforms and soliton evolution
equations via deep neural network learning schemes
- Title(参考訳): 深層ニューラルネットワーク学習スキームによるB\'acklund変換とソリトン進化方程式のデータ駆動的発見
- Authors: Zijian Zhou, Li Wang, Zhenya Yan
- Abstract要約: ソリトン進化方程式のB'acklund変換(BT)を学習するためのディープニューラルネットワーク学習手法を提案する。
2つ目のディープラーニング方式は、高階ソリトンを生成する明示的/単純BTを使用して、mKdVとsine-Gordon方程式のデータ駆動的な発見を訓練する。
- 参考スコア(独自算出の注目度): 7.338597331514317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a deep neural network learning scheme to learn the B\"acklund
transforms (BTs) of soliton evolution equations and an enhanced deep learning
scheme for data-driven soliton equation discovery based on the known BTs,
respectively. The first scheme takes advantage of some solution (or soliton
equation) information to study the data-driven BT of sine-Gordon equation, and
complex and real Miura transforms between the defocusing (focusing) mKdV
equation and KdV equation, as well as the data-driven mKdV equation discovery
via the Miura transforms. The second deep learning scheme uses the
explicit/implicit BTs generating the higher-order solitons to train the
data-driven discovery of mKdV and sine-Gordon equations, in which the
high-order solution informations are more powerful for the enhanced leaning
soliton equations with higher accurates.
- Abstract(参考訳): 本稿では、ソリトン進化方程式のB\'acklund変換(BT)を学習するためのディープニューラルネットワーク学習方式と、既知のBTに基づくデータ駆動ソリトン方程式探索のための拡張ディープラーニング方式を導入する。
最初のスキームは、シネ・ゴルドン方程式のデータ駆動BTを研究するための解(またはソリトン方程式)情報と、ミウラ変換によるデータ駆動mKdV方程式の発見と同様に、デフォーカス(焦点)mKdV方程式とKdV方程式の間の複素および実ミウラ変換を利用する。
第2のディープラーニング方式では、高階ソリトンを生成する明示的/単純BTを用いて、mKdVとsine-Gordon方程式のデータ駆動的な発見を訓練する。
関連論文リスト
- Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Embedding stochastic differential equations into neural networks via
dual processes [0.0]
本稿では、微分方程式の予測のためのニューラルネットワーク構築のための新しいアプローチを提案する。
提案手法は入力と出力のデータセットを必要としない。
実演として,Ornstein-Uhlenbeck プロセスと van der Pol システムのためのニューラルネットワークを構築した。
論文 参考訳(メタデータ) (2023-06-08T00:50:16Z) - Transfer learning for atomistic simulations using GNNs and kernel mean
embeddings [24.560340485988128]
本稿では, グラフニューラルネットワーク(GNN)を用いて, カーネル平均埋め込みとともに, 化学環境を表現するトランスファー学習アルゴリズムを提案する。
我々は,複雑性を増大させる一連の現実的なデータセットに対して,我々のアプローチを検証し,優れた一般化と伝達可能性性能を示す。
論文 参考訳(メタデータ) (2023-06-02T14:58:16Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations [44.89798007370551]
本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
論文 参考訳(メタデータ) (2022-03-02T19:09:52Z) - Deep Transfer Learning with Ridge Regression [7.843067454030999]
大量のデータで訓練されたディープモデルは、関連するドメインから見えないデータに対して有望な一般化能力を示す。
我々は、深層ニューラルネットワーク(DNN)から生成された学習特徴ベクトルの低ランク性と、カーネルリッジ回帰(KRR)で提供されるクローズドフォームソリューションを活用することで、この問題に対処する。
本手法は、教師あり半教師ありのトランスファー学習タスクにおいて成功している。
論文 参考訳(メタデータ) (2020-06-11T20:21:35Z) - Reinforcement Learning with Augmented Data [97.42819506719191]
本稿では,ほとんどのRLアルゴリズムを拡張可能なシンプルなプラグイン・アンド・プレイモジュールであるReinforcement Learning with Augmented Data (RAD)を提案する。
本稿では,RLアルゴリズムが複雑な最先端手法より優れていることを示すために,ランダム翻訳,作物,カラージッタ,パッチカットアウト,ランダム畳み込み,振幅スケールなどの拡張法を提案する。
論文 参考訳(メタデータ) (2020-04-30T17:35:32Z) - Multilinear Compressive Learning with Prior Knowledge [106.12874293597754]
マルチリニア圧縮学習(MCL)フレームワークは、マルチリニア圧縮センシングと機械学習をエンドツーエンドシステムに統合する。
MCLの背後にある主要なアイデアは、下流学習タスクの信号から重要な特徴を捉えることのできるテンソル部分空間の存在を仮定することである。
本稿では、上記の要件、すなわち、関心の信号が分離可能なテンソル部分空間をどうやって見つけるかという、2つの要件に対処する新しい解決策を提案する。
論文 参考訳(メタデータ) (2020-02-17T19:06:05Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。