論文の概要: Training Variation of Physically-Informed Deep Learning Models
- arxiv url: http://arxiv.org/abs/2510.03416v1
- Date: Fri, 03 Oct 2025 18:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.030988
- Title: Training Variation of Physically-Informed Deep Learning Models
- Title(参考訳): 物理インフォームド深層学習モデルの学習変化
- Authors: Ashley Lenau, Dennis Dimiduk, Stephen R. Niezgoda,
- Abstract要約: 成功したディープラーニングネットワークは、トレーニングデータセットだけでなく、特定のタスクに対してネットワークを条件付けるために使用されるトレーニングアルゴリズムにも大きく依存する。
本研究では,高弾性コントラスト複合材料の応力場を予測するPix2Pixネットワークをケーススタディとして用いた。
ストレス平衡を強制するいくつかの異なる損失関数が実装され、それぞれが様々なレベルの収束、正確性、および多くのトレーニングセッションでストレス平衡を強制する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A successful deep learning network is highly dependent not only on the training dataset, but the training algorithm used to condition the network for a given task. The loss function, dataset, and tuning of hyperparameters all play an essential role in training a network, yet there is not much discussion on the reliability or reproducibility of a training algorithm. With the rise in popularity of physics-informed loss functions, this raises the question of how reliable one's loss function is in conditioning a network to enforce a particular boundary condition. Reporting the model variation is needed to assess a loss function's ability to consistently train a network to obey a given boundary condition, and provides a fairer comparison among different methods. In this work, a Pix2Pix network predicting the stress fields of high elastic contrast composites is used as a case study. Several different loss functions enforcing stress equilibrium are implemented, with each displaying different levels of variation in convergence, accuracy, and enforcing stress equilibrium across many training sessions. Suggested practices in reporting model variation are also shared.
- Abstract(参考訳): 成功したディープラーニングネットワークは、トレーニングデータセットだけでなく、特定のタスクに対してネットワークを条件付けるために使用されるトレーニングアルゴリズムにも大きく依存する。
ハイパーパラメータの損失関数、データセット、チューニングはすべて、ネットワークのトレーニングにおいて重要な役割を果たすが、トレーニングアルゴリズムの信頼性や再現性についてはあまり議論されていない。
物理インフォームド・ロス関数の人気が高まったことにより、ネットワークが特定の境界条件を強制する際の損失関数の信頼性が疑問視される。
モデル変動の報告は、与えられた境界条件に従うためにネットワークを一貫して訓練する損失関数の能力を評価するために必要であり、異なる方法間のより公平な比較を提供する。
本研究では,高弾性コントラスト複合材料の応力場を予測するPix2Pixネットワークをケーススタディとして用いた。
ストレス平衡を強制するいくつかの異なる損失関数が実装され、それぞれが様々なレベルの収束、正確性、および多くのトレーニングセッションでストレス平衡を強制する。
モデルのバリエーションを報告するための推奨プラクティスも共有されている。
関連論文リスト
- The Butterfly Effect: Neural Network Training Trajectories Are Highly Sensitive to Initial Conditions [51.68215326304272]
たとえ小さな摂動であっても、同じ訓練軌跡を確実に引き起こすことで、トレーニング時間とともに急速に減少する効果が発散することを示します。
この結果から,ニューラルネットワークのトレーニング安定性,微調整,モデルマージ,モデルアンサンブルの多様性の実践的意味が示唆された。
論文 参考訳(メタデータ) (2025-06-16T08:35:16Z) - Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - A simple theory for training response of deep neural networks [0.0]
ディープニューラルネットワークは、トレーニングデータセットの入力と出力の関係をモデル化する強力な方法を提供します。
トレーニング段階、アクティベーション機能、トレーニング方法に基づいて、トレーニング応答がいくつかの異なる要因から成り立っていることを示す。
さらに,ネットワークの脆弱性を生じさせるトレーニング力学の効果として,特徴空間の削減を示す。
論文 参考訳(メタデータ) (2024-05-07T07:20:15Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [86.99017195607077]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - FourierLoss: Shape-Aware Loss Function with Fourier Descriptors [1.5659201748872393]
この研究は、FourierLossという新しい形状認識損失関数を導入しました。
これは、地上の真実と予測されたセグメンテーションマップの間の形状の相違に依拠し、それらのオブジェクト上で計算されたフーリエ記述子を通し、ネットワークトレーニングにおけるこの相違を罰する。
提案した形状認識損失関数が肝セグメンテーションに有意な有意な有意な成績を示した。
論文 参考訳(メタデータ) (2023-09-21T14:23:10Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Inverse-Dirichlet Weighting Enables Reliable Training of Physics
Informed Neural Networks [2.580765958706854]
我々は、深層ニューラルネットワークのトレーニング中に、スケール不均衡を伴うマルチスケールダイナミクスから生じる障害モードを記述し、治療する。
PINNは、物理方程式モデルとデータとのシームレスな統合を可能にする、一般的な機械学習テンプレートである。
逐次トレーニングを用いた逆モデリングでは,逆ディリクレ重み付けがPINNを破滅的忘れから保護することがわかった。
論文 参考訳(メタデータ) (2021-07-02T10:01:37Z) - Side-Tuning: A Baseline for Network Adaptation via Additive Side
Networks [95.51368472949308]
適応は、トレーニングデータが少ない場合や、ネットワークのプリエンプションをエンコードしたい場合などに有効である。
本稿では,サイドチューニングという簡単な方法を提案する。
論文 参考訳(メタデータ) (2019-12-31T18:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。