論文の概要: Surface Similarity Parameter: A New Machine Learning Loss Metric for
Oscillatory Spatio-Temporal Data
- arxiv url: http://arxiv.org/abs/2204.06843v1
- Date: Thu, 14 Apr 2022 09:27:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 22:09:28.007903
- Title: Surface Similarity Parameter: A New Machine Learning Loss Metric for
Oscillatory Spatio-Temporal Data
- Title(参考訳): 表面類似度パラメータ:振動時空間データのための新しい機械学習損失メトリクス
- Authors: Mathies Wedler (1), Merten Stender (1), Marco Klein (1), Svenja Ehlers
(1), Norbert Hoffmann (1 and 2) ((1) Hamburg University of Technology, (2)
Imperial College London)
- Abstract要約: 本研究では, 表面類似度パラメータ(SSP)を新しい損失関数として導入し, 滑らかな振動列の学習に特に有用であることを示す。
カオス時間系の実験により,SSPは勾配を形成するのに有用であることが示され,トレーニングプロセスの加速が図られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised machine learning approaches require the formulation of a loss
functional to be minimized in the training phase. Sequential data are
ubiquitous across many fields of research, and are often treated with Euclidean
distance-based loss functions that were designed for tabular data. For smooth
oscillatory data, those conventional approaches lack the ability to penalize
amplitude, frequency and phase prediction errors at the same time, and tend to
be biased towards amplitude errors. We introduce the surface similarity
parameter (SSP) as a novel loss function that is especially useful for training
machine learning models on smooth oscillatory sequences. Our extensive
experiments on chaotic spatio-temporal dynamical systems indicate that the SSP
is beneficial for shaping gradients, thereby accelerating the training process,
reducing the final prediction error, and implementing a stronger regularization
effect compared to using classical loss functions. The results indicate the
potential of the novel loss metric particularly for highly complex and chaotic
data, such as data stemming from the nonlinear two-dimensional
Kuramoto-Sivashinsky equation and the linear propagation of dispersive surface
gravity waves in fluids.
- Abstract(参考訳): 監視された機械学習アプローチは、トレーニングフェーズで最小化するために損失関数の定式化を必要とする。
シークエンシャルデータは、多くの研究分野に分散しており、表データ用に設計されたユークリッド距離に基づく損失関数で扱われることが多い。
スムーズな振動データの場合、従来の手法では振幅、周波数、位相予測誤差を同時に補償する能力がなく、振幅誤差に偏る傾向にある。
本研究では, 表面類似度パラメータ(SSP)を新しい損失関数として導入し, 滑らかな振動列の学習に特に有用であることを示す。
カオス時空間力学系に関する広範な実験により,sspは勾配形成に有用であり,トレーニングプロセスを加速し,最終予測誤差を低減し,古典的損失関数よりも強い正規化効果を実現できることが示された。
その結果, 非線形2次元クラモト・シヴァシンスキー方程式に基づくデータや, 流体中における分散表面重力波の線形伝播など, 高度に複雑でカオス的なデータに対する新しい損失計量の可能性が示唆された。
関連論文リスト
- Discovery and inversion of the viscoelastic wave equation in inhomogeneous media [3.6864706261549127]
現在のスパース回帰法はスパースおよびノイズデータセット上の不正確な方程式を特定することができる。
探索と埋め込みという2つの交互方向最適化フェーズを組み合わせたハイブリッドフレームワークを提案する。
提案手法は, 高レベルの騒音に直面しても, 優れたロバスト性と精度を示す。
論文 参考訳(メタデータ) (2024-09-27T01:05:45Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Temporal Subsampling Diminishes Small Spatial Scales in Recurrent Neural
Network Emulators of Geophysical Turbulence [0.0]
しばしば見過ごされる処理ステップがエミュレータの予測品質にどのように影響するかを検討する。
1)空間ベクトル自己回帰(NVAR)の形式、(2)エコー状態ネットワーク(ESN)の形式。
いずれの場合も、トレーニングデータのサブサンプリングは、数値拡散に類似した小さなスケールでのバイアスの増加につながる。
論文 参考訳(メタデータ) (2023-04-28T21:34:53Z) - Deep learning for full-field ultrasonic characterization [7.120879473925905]
本研究では、最近の機械学習の進歩を活用して、物理に基づくデータ分析プラットフォームを構築する。
直接反転と物理インフォームドニューラルネットワーク(PINN)の2つの論理について検討した。
論文 参考訳(メタデータ) (2023-01-06T05:01:05Z) - Non-linear manifold ROM with Convolutional Autoencoders and Reduced
Over-Collocation method [0.0]
非アフィンパラメトリックな依存、非線形性、興味のモデルにおける対流支配的な規則は、ゆっくりとしたコルモゴロフ n-幅の崩壊をもたらす。
我々は,Carlbergらによって導入された非線形多様体法を,オーバーコロケーションの削減とデコーダの教師/学生による学習により実現した。
本研究では,2次元非線形保存法と2次元浅水モデルを用いて方法論を検証し,時間とともに動的に進化する純粋データ駆動型手法と長期記憶ネットワークとの比較を行った。
論文 参考訳(メタデータ) (2022-03-01T11:16:50Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z) - Designing Accurate Emulators for Scientific Processes using
Calibration-Driven Deep Models [33.935755695805724]
Learn-by-Calibrating (LbC)は、科学応用においてエミュレータを設計するための新しいディープラーニングアプローチである。
また,LbCは広く適応された損失関数の選択に対して,一般化誤差を大幅に改善することを示した。
LbCは、小さなデータレギュレータでも高品質なエミュレータを実現し、さらに重要なことは、明確な事前条件なしで固有のノイズ構造を復元する。
論文 参考訳(メタデータ) (2020-05-05T16:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。