論文の概要: On the reproducibility of fully convolutional neural networks for
modeling time-space evolving physical systems
- arxiv url: http://arxiv.org/abs/2105.05482v1
- Date: Wed, 12 May 2021 07:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:19:32.496089
- Title: On the reproducibility of fully convolutional neural networks for
modeling time-space evolving physical systems
- Title(参考訳): 時間空間進化物理系モデリングのための完全畳み込みニューラルネットワークの再現性について
- Authors: Wagner Gon\c{c}alves Pinto, Antonio Alguacil and Micha\"el Bauerheim
- Abstract要約: ディープラーニング完全畳み込みニューラルネットワークは、同じ条件で同じネットワークを数回トレーニングすることで評価される。
ダブル浮動小数点精度で実施したトレーニングは、ネットワークパラメータとテストエラー範囲の両方のばらつきを大幅に低減し、見積もりをわずかに改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reproducibility of a deep-learning fully convolutional neural network is
evaluated by training several times the same network on identical conditions
(database, hyperparameters, hardware) with non-deterministic Graphics
Processings Unit (GPU) operations. The propagation of two-dimensional acoustic
waves, typical of time-space evolving physical systems, is studied on both
recursive and non-recursive tasks. Significant changes in models properties
(weights, featured fields) are observed. When tested on various propagation
benchmarks, these models systematically returned estimations with a high level
of deviation, especially for the recurrent analysis which strongly amplifies
variability due to the non-determinism. Trainings performed with double
floating-point precision provide slightly better estimations and a significant
reduction of the variability of both the network parameters and its testing
error range.
- Abstract(参考訳): ディープラーニング完全畳み込みニューラルネットワークの再現性は、同じ条件(データベース、ハイパーパラメータ、ハードウェア)で複数の同じネットワークを非決定論的グラフィックス処理ユニット(gpu)操作でトレーニングすることで評価される。
時間空間の進化する物理系の典型的な2次元音響波の伝搬は、再帰的および非再帰的タスクの両方で研究される。
モデル特性(重み、特徴フィールド)の大幅な変化が観察される。
様々な伝搬ベンチマークでテストすると、これらのモデルは高い偏差で体系的に推定を返却し、特に非決定性による変動を強く増幅する反復解析を行う。
ダブル浮動小数点精度で実施したトレーニングは、ネットワークパラメータとテストエラー範囲の両方のばらつきを大幅に低減し、見積もりをわずかに改善する。
関連論文リスト
- Reconstruction of neuromorphic dynamics from a single scalar time series using variational autoencoder and neural network map [0.0]
ホジキン・ハクスリー形式に基づく生理ニューロンのモデルを考える。
その変数の1つの時系列は、離散時間力学系として動作可能なニューラルネットワークをトレーニングするのに十分なものであることが示されている。
論文 参考訳(メタデータ) (2024-11-11T15:15:55Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A critical look at deep neural network for dynamic system modeling [0.0]
本稿では,入力出力データを用いた動的システムのモデリングにおける(深度)ニューラルネットワークの能力に疑問を呈する。
線形時間不変(LTI)力学系の同定には、2つの代表的なニューラルネットワークモデルを比較する。
LTIシステムでは、LSTMとCFNNはノイズのないケースでも一貫したモデルを提供できない。
論文 参考訳(メタデータ) (2023-01-27T09:03:05Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Learning Continuous-Time Dynamics by Stochastic Differential Networks [32.63114111531396]
変動微分ネットワーク(VSDN)という,フレキシブルな連続時間リカレントニューラルネットワークを提案する。
VSDNは神経微分方程式(SDE)による散発時間系列の複雑なダイナミクスを埋め込む
VSDNは最先端の継続的ディープラーニングモデルより優れており、散発時系列の予測やタスクにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-06-11T01:40:34Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Comparing recurrent and convolutional neural networks for predicting
wave propagation [0.0]
本研究では,繰り返しおよび畳み込み型深層ニューラルネットワークによる表面波の予測性能について検討する。
我々は,シミュレーションのごく一部で予測時間を保ちながら,従来の手法よりも長期予測を改善する。
また,この課題において,畳み込みネットワークは,少なくとも再帰ネットワークと同様に機能することを示す。
論文 参考訳(メタデータ) (2020-02-20T19:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。