論文の概要: Constants of motion network revisited
- arxiv url: http://arxiv.org/abs/2504.09434v1
- Date: Sun, 13 Apr 2025 04:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:53:56.143497
- Title: Constants of motion network revisited
- Title(参考訳): 動きネットワークの定数の再検討
- Authors: Wenqi Fang, Chao Chen, Yongkui Yang, Zheng Wang,
- Abstract要約: 本稿では,特異値分解(SVD)技術を用いて構築された新しいニューラルネットワークアーキテクチャと,COMETの性能向上のための2相学習アルゴリズムを提案する。
提案手法は,非ハミルトン系に適用し,運動定数を示すなどCOMETの利点を保ちつつも,COMETよりも軽量で騒音に強い。
- 参考スコア(独自算出の注目度): 8.938225969562643
- License:
- Abstract: Discovering constants of motion is meaningful in helping understand the dynamical systems, but inevitably needs proficient mathematical skills and keen analytical capabilities. With the prevalence of deep learning, methods employing neural networks, such as Constant Of Motion nETwork (COMET), are promising in handling this scientific problem. Although the COMET method can produce better predictions on dynamics by exploiting the discovered constants of motion, there is still plenty of room to sharpen it. In this paper, we propose a novel neural network architecture, built using the singular-value-decomposition (SVD) technique, and a two-phase training algorithm to improve the performance of COMET. Extensive experiments show that our approach not only retains the advantages of COMET, such as applying to non-Hamiltonian systems and indicating the number of constants of motion, but also can be more lightweight and noise-robust than COMET.
- Abstract(参考訳): 運動の定数を明らかにすることは、力学系を理解するのに役立つが、必然的に熟練した数学的スキルと鋭い分析能力が必要である。
ディープラーニングの普及に伴い、Constant Of Motion nETwork (COMET)のようなニューラルネットワークを用いた手法がこの科学的問題に対処することを約束している。
COMET法は、検出された運動定数を利用して、ダイナミクスの予測を改善することができるが、それを研ぐ余地はまだまだたくさんある。
本稿では,特異値分解(SVD)技術を用いて構築された新しいニューラルネットワークアーキテクチャと,COMETの性能向上のための2相学習アルゴリズムを提案する。
広汎な実験により,本手法は非ハミルトン系に適用し,運動定数を示すなどCOMETの利点を保っているだけでなく,COMETよりも軽量で騒音に強いことが示唆された。
関連論文リスト
- Semi-Implicit Neural Ordinary Differential Equations [5.196303789025002]
基礎となる力学の分割可能な構造を利用する半単純ニューラルODE手法を提案する。
我々の手法は、既存のアプローチよりも大きな計算上の優位性を持つ暗黙のニューラルネットワークにつながる。
論文 参考訳(メタデータ) (2024-12-15T20:21:02Z) - Learning low-dimensional dynamics from whole-brain data improves task
capture [2.82277518679026]
逐次変分オートエンコーダ(SVAE)を用いたニューラルダイナミクスの低次元近似学習手法を提案する。
本手法は,従来の手法よりも精度の高い認知過程を予測できるスムーズなダイナミクスを見出す。
我々は、モータ、ワーキングメモリ、リレーショナル処理タスクを含む様々なタスクfMRIデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-05-18T18:43:13Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - Constants of motion network [0.0]
データからシステムの力学と運動定数を同時に学習できるニューラルネットワークを提案する。
検出された運動定数を利用することで、ダイナミクスの予測がより良くなる。
論文 参考訳(メタデータ) (2022-08-22T15:07:48Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Learning effective dynamics from data-driven stochastic systems [2.4578723416255754]
この研究は、低速力学系に対する効果的な力学の研究に費やされている。
遅い多様体を学習するために,Auto-SDEと呼ばれるニューラルネットワークを含む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-09T09:56:58Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Learning to Modulate Random Weights: Neuromodulation-inspired Neural
Networks For Efficient Continual Learning [1.9580473532948401]
生体神経系における神経調節にインスパイアされた新しいニューラルネットワークアーキテクチャを導入する。
学習可能なパラメータが極めて少ないにもかかわらず,本手法はタスク毎の学習性能が極めて高いことを示す。
論文 参考訳(メタデータ) (2022-04-08T21:12:13Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。