論文の概要: Comparison of neural network training strategies for the simulation of dynamical systems
- arxiv url: http://arxiv.org/abs/2512.03851v1
- Date: Wed, 03 Dec 2025 14:50:06 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 11:55:03.710586
- Title: Comparison of neural network training strategies for the simulation of dynamical systems
- Title(参考訳): 力学系のシミュレーションのためのニューラルネットワークトレーニング戦略の比較
- Authors: Paul Strasser, Andreas Pfeffer, Jakob Weber, Markus Gurtner, Andreas Körner,
- Abstract要約: 本稿では,並列トレーニングとシリーズ並列トレーニングの2つの主要なトレーニング戦略を比較した。
この研究は、シリーズ並列トレーニングが現在の実践を支配しているにもかかわらず、並列トレーニングは一貫して、より長期的な予測精度を向上することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Neural networks have become a widely adopted tool for modeling nonlinear dynamical systems from data. However, the choice of training strategy remains a key design decision, particularly for simulation tasks. This paper compares two predominant strategies: parallel and series-parallel training. The conducted empirical analysis spans five neural network architectures and two examples: a pneumatic valve test bench and an industrial robot benchmark. The study reveals that, even though series-parallel training dominates current practice, parallel training consistently yields better long-term prediction accuracy. Additionally, this work clarifies the often inconsistent terminology in the literature and relate both strategies to concepts from system identification. The findings suggest that parallel training should be considered the default training strategy for neural network-based simulation of dynamical systems.
- Abstract(参考訳): ニューラルネットワークは、データから非線形力学系をモデル化するツールとして広く採用されている。
しかし、トレーニング戦略の選択は、特にシミュレーションタスクにおいて重要な設計決定である。
本稿では,並列学習とシリーズ並列学習の2つの主要な戦略を比較した。
実験による分析は,5つのニューラルネットワークアーキテクチャと,空気圧弁試験ベンチと産業用ロボットベンチマークの2つの例で構成されている。
この研究は、シリーズ並列トレーニングが現在の実践を支配しているにもかかわらず、並列トレーニングは一貫して、より長期的な予測精度を向上することを示した。
さらに、この研究は文学におけるしばしば矛盾する用語を明らかにし、両方の戦略をシステム識別の概念に関連付ける。
この結果は、並列トレーニングがニューラルネットワークに基づく動的システムのシミュレーションのデフォルトトレーニング戦略として考慮されるべきであることを示唆している。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - Epistemic Modeling Uncertainty of Rapid Neural Network Ensembles for
Adaptive Learning [0.0]
新しいタイプのニューラルネットワークは、高速ニューラルネットワークパラダイムを用いて提示される。
提案したエミュレータを組み込んだニューラルネットワークは,予測精度を損なうことなく,ほぼ瞬時に学習できることが判明した。
論文 参考訳(メタデータ) (2023-09-12T22:34:34Z) - SortedNet: A Scalable and Generalized Framework for Training Modular Deep Neural Networks [30.069353400127046]
我々は、ディープニューラルネットワーク(DNN)の固有のモジュラリティを活用するためにSortedNetを提案する。
SortedNetは、メインモデルのトレーニングと同時にサブモデルのトレーニングを可能にする。
一度に160台のサブモデルを訓練でき、オリジナルのモデルの性能の少なくとも96%を達成できる。
論文 参考訳(メタデータ) (2023-09-01T05:12:25Z) - Beyond Geometry: Comparing the Temporal Structure of Computation in
Neural Circuits with Dynamical Similarity Analysis [7.660368798066376]
本稿では、2つの系を力学のレベルで比較する新しい類似度指標を提案する。
本手法は,ニューラルネットワークにおける計算の本質的時間構造を比較検討するための扉を開く。
論文 参考訳(メタデータ) (2023-06-16T20:11:38Z) - Parallel Neural Networks in Golang [0.0]
本稿では,並列ニューラルネットワーク(PNN)と新しいプログラミング言語Golangの設計と実装について述べる。
Golangとその固有の並列化サポートは、並列ニューラルネットワークシミュレーションにおいて、シーケンシャルなバリエーションに比べて処理時間が大幅に短縮されていることが証明された。
論文 参考訳(メタデータ) (2023-04-19T11:56:36Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Edge of chaos as a guiding principle for modern neural network training [19.419382003562976]
ニューラルネットワーク学習アルゴリズムにおける様々なハイパーパラメータの役割を秩序-カオス位相図を用いて検討する。
特に、広く採用されているFashion-MNISTデータセットに基づいて、完全に解析的なフィードフォワードニューラルネットワークについて検討する。
論文 参考訳(メタデータ) (2021-07-20T12:17:55Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。