論文の概要: Curriculum Learning for Mesh-based simulations
- arxiv url: http://arxiv.org/abs/2509.13138v1
- Date: Tue, 16 Sep 2025 14:54:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.135053
- Title: Curriculum Learning for Mesh-based simulations
- Title(参考訳): メッシュシミュレーションのためのカリキュラム学習
- Authors: Paul Garnier, Vincent Lannelongue, Elie Hachem,
- Abstract要約: メッシュベースの計算流体力学(CFD)のための強力なサロゲートとして、グラフニューラルネットワーク(GNN)が登場した。
非常に粗いメッシュ上での初等訓練により収束を加速するエンファース・トゥ・ファインなカリキュラムについて検討する。
壁面時間を最大50%削減しながら、同等の精度を実現した。
- 参考スコア(独自算出の注目度): 2.867517731896504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have emerged as powerful surrogates for mesh-based computational fluid dynamics (CFD), but training them on high-resolution unstructured meshes with hundreds of thousands of nodes remains prohibitively expensive. We study a \emph{coarse-to-fine curriculum} that accelerates convergence by first training on very coarse meshes and then progressively introducing medium and high resolutions (up to \(3\times10^5\) nodes). Unlike multiscale GNN architectures, the model itself is unchanged; only the fidelity of the training data varies over time. We achieve comparable generalization accuracy while reducing total wall-clock time by up to 50\%. Furthermore, on datasets where our model lacks the capacity to learn the underlying physics, using curriculum learning enables it to break through plateaus.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、メッシュベースの計算流体力学(CFD)の強力なサロゲートとして登場したが、数十万のノードを持つ高解像度の非構造化メッシュでそれらをトレーニングすることは、違法に高価である。
非常に粗いメッシュ上での初等訓練により収束を加速し,その後,中間および高分解能(最大3\times10^5\)ノード)を段階的に導入する。
マルチスケールのGNNアーキテクチャとは異なり、モデルそのものは変化せず、トレーニングデータの忠実度は時間とともに変化する。
また,壁面時間を最大50倍に削減しながら,同等の一般化精度を実現した。
さらに、我々のモデルが基礎となる物理を学習する能力に欠けるデータセットでは、カリキュラム学習を用いることで、高原を突破することができる。
関連論文リスト
- Transfer learning in Scalable Graph Neural Network for Improved Physical Simulation [37.1565271299621]
本稿では,グラフネットワークシミュレータのための事前学習・転送学習パラダイムを提案する。
提案手法により,少量のトレーニングデータを微調整した場合に,モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2025-02-07T08:18:23Z) - MeshMask: Physics-Based Simulations with Masked Graph Neural Networks [0.0]
本稿では,計算流体力学(CFD)問題に適用したグラフニューラルネットワーク(GNN)のための新しいマスク付き事前学習手法を提案する。
事前学習中に入力メッシュノードの40%をランダムにマスキングすることにより、複雑な流体力学の堅牢な表現を学習せざるを得ない。
提案手法は,メッシュ当たり25万ノード以上の3次元頭蓋内動脈瘤シミュレーションの挑戦的データセットを含む,7つのCFDデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2025-01-15T11:34:56Z) - Analyzing and Improving the Training Dynamics of Diffusion Models [36.37845647984578]
一般的なADM拡散モデルアーキテクチャにおいて、不均一かつ非効率なトレーニングの原因をいくつか特定し、修正する。
この哲学の体系的な応用は、観測されたドリフトと不均衡を排除し、同じ計算複雑性でネットワークをかなり良くする。
論文 参考訳(メタデータ) (2023-12-05T11:55:47Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Learning Rate Curriculum [75.98230528486401]
ラーニングレートカリキュラム(LeRaC)と呼ばれる新しいカリキュラム学習手法を提案する。
LeRaCは、ニューラルネットワークの各レイヤ毎に異なる学習率を使用して、最初のトレーニングエポックの間、データに依存しないカリキュラムを作成する。
Smoothing(CBS)によるCurriculum(Curriculum)との比較を行った。
論文 参考訳(メタデータ) (2022-05-18T18:57:36Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Improving the Accuracy of Early Exits in Multi-Exit Architectures via
Curriculum Learning [88.17413955380262]
マルチエクイットアーキテクチャにより、ディープニューラルネットワークは、正確なコストで厳密な期限に従うために、実行を早期に終了することができる。
カリキュラム学習を活用したマルチエクジットカリキュラム学習という新しい手法を紹介します。
本手法は, 標準訓練手法と比較して, 早期終了の精度を一貫して向上させる。
論文 参考訳(メタデータ) (2021-04-21T11:12:35Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。