論文の概要: Learning Heat-based Equations in Self-similar variables
- arxiv url: http://arxiv.org/abs/2602.00872v2
- Date: Tue, 03 Feb 2026 04:12:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:28:03.711746
- Title: Learning Heat-based Equations in Self-similar variables
- Title(参考訳): 自己相似変数における熱に基づく方程式の学習
- Authors: Shihao Wang, Qipeng Qian, Jingquan Wang,
- Abstract要約: 自己相似変数(SSV)における熱に基づく方程式の解学習について検討する。
我々は,標準的なニューラル・オペレーティング・トレーニングと互換性のあるSSVトレーニング・フレームワークを開発した。
- 参考スコア(独自算出の注目度): 11.395691851713266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study solution learning for heat-based equations in self-similar variables (SSV). We develop an SSV training framework compatible with standard neural-operator training. We instantiate this framework on the two-dimensional incompressible Navier-Stokes equations and the one-dimensional viscous Burgers equation, and perform controlled comparisons between models trained in physical coordinates and in the corresponding self-similar coordinates using two simple fully connected architectures (standard multilayer perceptrons and a factorized fully connected network). Across both systems and both architectures, SSV-trained networks consistently deliver substantially more accurate and stable extrapolation beyond the training window and better capture qualitative long-time trends. These results suggest that self-similar coordinates provide a mathematically motivated inductive bias for learning the long-time dynamics of heat-based equations.
- Abstract(参考訳): 自己相似変数(SSV)における熱に基づく方程式の解学習について検討した。
我々は,標準的なニューラル・オペレーティング・トレーニングと互換性のあるSSVトレーニング・フレームワークを開発した。
2次元非圧縮性ナビエ・ストークス方程式と1次元粘性バーガース方程式に基づいてこの枠組みをインスタンス化し、物理座標で訓練されたモデルと、2つの単純な完全連結アーキテクチャ(標準多層パーセプトロンと分解完全連結ネットワーク)を用いて対応する自己相似座標で制御された比較を行う。
システムとアーキテクチャの両面で、SSVでトレーニングされたネットワークは、トレーニングウィンドウを超えてかなり正確で安定した外挿を提供し、質的な長期トレンドを捉えている。
これらの結果は、自己相似座標が、熱に基づく方程式の長時間の力学を学ぶために数学的に動機づけられた帰納バイアスをもたらすことを示唆している。
関連論文リスト
- Expanding the Chaos: Neural Operator for Stochastic (Partial) Differential Equations [65.80144621950981]
我々はWienerカオス拡張(WCE)に基づいて、SPDEとSDEのためのニューラル演算子(NO)アーキテクチャを設計する。
WCEベースのニューラル演算子は、SDE/SPDEソリューション演算子を学習するための実用的でスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2026-01-03T00:59:25Z) - Physically Interpretable Representation Learning with Gaussian Mixture Variational AutoEncoder (GM-VAE) [37.18249990338269]
本研究では,高次元科学的データから物理的に解釈可能な表現を抽出するための変分オートエンコーダ(GM-VAE)フレームワークを提案する。
再建とクラスタリングを協調的に最適化する従来のVAEとは異なり,本手法はブロック座標降下戦略を利用する。
学習した表現を客観的に評価するために,グラフ-ラプラシアン滑らか度に基づく計量を導入し,潜在多様体全体の物理的不安定性のコヒーレンスを測定する。
論文 参考訳(メタデータ) (2025-11-26T20:04:38Z) - Equivariant U-Shaped Neural Operators for the Cahn-Hilliard Phase-Field Model [4.79907962230318]
等価なU字型ニューラル作用素(E-UNO)が過去の力学の短い歴史から位相場変数の進化を学習できることを示す。
対称性とスケール階層を符号化することにより、モデルはより一般化され、トレーニングデータが少なくなり、物理的に一貫したダイナミクスが得られる。
論文 参考訳(メタデータ) (2025-09-01T09:25:31Z) - Self-Supervised Coarsening of Unstructured Grid with Automatic Differentiation [55.88862563823878]
本研究では,微分可能物理の概念に基づいて,非構造格子を階層化するアルゴリズムを提案する。
多孔質媒質中のわずかに圧縮可能な流体流を制御した線形方程式と波動方程式の2つのPDE上でのアルゴリズムの性能を示す。
その結果,検討したシナリオでは,関心点におけるモデル変数のダイナミクスを保ちながら,格子点数を最大10倍に削減した。
論文 参考訳(メタデータ) (2025-07-24T11:02:13Z) - Transformer-based Koopman Autoencoder for Linearizing Fisher's Equation [0.0]
線形フィッシャーの反応拡散方程式に対してトランスフォーマーに基づくクープマンオートエンコーダを提案する。
強調するのは、方程式を解くだけでなく、システムのダイナミクスをより理解しやすい形式に変換することだ。
提案したモデルの有効性を評価するために,複数のデータセットに対する広範囲な試験を行った。
論文 参考訳(メタデータ) (2024-12-03T12:52:04Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Equivariant geometric convolutions for emulation of dynamical systems [6.3003220645859175]
我々は幾何学的畳み込みを用いて、機械学習モデルに座標自由を強制する。
2次元圧縮可能なナビエストークスを模擬した数値実験では,精度が向上し,安定性が向上した。
モデルアーキテクチャに大きな変更を加えることなく座標自由を強制することの容易さは、適切な種類の問題に適用されるCNNベースのメソッドにエキサイティングなレシピを提供する。
論文 参考訳(メタデータ) (2023-05-21T22:44:18Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。