論文の概要: AMR-Transformer: Enabling Efficient Long-range Interaction for Complex Neural Fluid Simulation
- arxiv url: http://arxiv.org/abs/2503.10257v1
- Date: Thu, 13 Mar 2025 11:16:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:51:55.419859
- Title: AMR-Transformer: Enabling Efficient Long-range Interaction for Complex Neural Fluid Simulation
- Title(参考訳): AMR変換器:複雑なニューラルネットワークシミュレーションのための効率的な長距離相互作用の実現
- Authors: Zeyi Xu, Jinfan Liu, Kuangxu Chen, Ye Chen, Zhangli Hu, Bingbing Ni,
- Abstract要約: 本稿では,AMR-Transformerを提案する。
これは、Navier-Stokes制約を意識した高速刈取モジュールと、新しい適応メッシュリファインメントスキームを統合している。
提案手法は,ベースラインモデルよりも精度が向上する。
- 参考スコア(独自算出の注目度): 33.63726923336252
- License:
- Abstract: Accurately and efficiently simulating complex fluid dynamics is a challenging task that has traditionally relied on computationally intensive methods. Neural network-based approaches, such as convolutional and graph neural networks, have partially alleviated this burden by enabling efficient local feature extraction. However, they struggle to capture long-range dependencies due to limited receptive fields, and Transformer-based models, while providing global context, incur prohibitive computational costs. To tackle these challenges, we propose AMR-Transformer, an efficient and accurate neural CFD-solving pipeline that integrates a novel adaptive mesh refinement scheme with a Navier-Stokes constraint-aware fast pruning module. This design encourages long-range interactions between simulation cells and facilitates the modeling of global fluid wave patterns, such as turbulence and shockwaves. Experiments show that our approach achieves significant gains in efficiency while preserving critical details, making it suitable for high-resolution physical simulations with long-range dependencies. On CFDBench, PDEBench and a new shockwave dataset, our pipeline demonstrates up to an order-of-magnitude improvement in accuracy over baseline models. Additionally, compared to ViT, our approach achieves a reduction in FLOPs of up to 60 times.
- Abstract(参考訳): 複雑な流体力学を正確にかつ効率的にシミュレーションすることは、伝統的に計算集約的な手法に依存してきた課題である。
畳み込みやグラフニューラルネットワークのようなニューラルネットワークに基づくアプローチは、効率的な局所的特徴抽出を可能にすることによって、この負担を部分的に軽減している。
しかし、制限された受容場やTransformerベースのモデルによって長距離依存を捉えるのに苦労し、グローバルなコンテキストを提供しながら、禁忌な計算コストを発生させる。
これらの課題に対処するために,Navier-Stokes制約を考慮した高速プルーニングモジュールと,新しい適応メッシュ改善スキームを統合した,効率的かつ正確なニューラルネットワークCFD解決パイプラインであるAMR-Transformerを提案する。
この設計はシミュレーションセル間の長距離相互作用を促進し、乱流や衝撃波などの大域的な流体波パターンのモデリングを容易にする。
実験により,本手法は重要な詳細を保存しながら高い効率向上を実現し,長距離依存を用いた高分解能物理シミュレーションに適していることが示された。
CFDBench、PDEBench、および新しい衝撃波データセットにおいて、我々のパイプラインはベースラインモデルよりも精度が桁違いに向上したことを示す。
また, ViTと比較して, FLOPの最大60倍の低減を実現している。
関連論文リスト
- Learning Effective Dynamics across Spatio-Temporal Scales of Complex Flows [4.798951413107239]
本稿では,グラフニューラルネットワーク(GNN)とアテンションに基づく自己回帰モデルを活用したグラフベース効果的ダイナミクス学習(Graph-LED)を提案する。
本研究では,シリンダーを過ぎる流れや,レイノルズ数の範囲の後方方向のステップを流れる流れなど,流体力学の一連の問題に対する提案手法を評価する。
論文 参考訳(メタデータ) (2025-02-11T22:14:30Z) - EffiCANet: Efficient Time Series Forecasting with Convolutional Attention [12.784289506021265]
EffiCANetは計算効率を維持しながら予測精度を向上させるように設計されている。
EffiCANetは最先端モデルに対するMAEの最大10.02%の削減を実現している。
論文 参考訳(メタデータ) (2024-11-07T12:54:42Z) - Unifying Dimensions: A Linear Adaptive Approach to Lightweight Image Super-Resolution [6.857919231112562]
ウィンドウベーストランスは超高解像度タスクにおいて優れた性能を示した。
畳み込みニューラルネットワークよりも計算複雑性と推論レイテンシが高い。
線形適応ミキサーネットワーク(LAMNet)という,畳み込みに基づくトランスフォーマーフレームワークを構築する。
論文 参考訳(メタデータ) (2024-09-26T07:24:09Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Physics-informed Deep Super-resolution for Spatiotemporal Data [18.688475686901082]
ディープ・ラーニングは、粗い粒度のシミュレーションに基づいて科学的データを増やすのに使うことができる。
物理インフォームドラーニングにインスパイアされた、豊かで効率的な時間的超解像フレームワークを提案する。
その結果,提案手法の有効性と効率が,ベースラインアルゴリズムと比較して優れていることが示された。
論文 参考訳(メタデータ) (2022-08-02T13:57:35Z) - Machine Learning model for gas-liquid interface reconstruction in CFD
numerical simulations [59.84561168501493]
流体の体積(VoF)法は多相流シミュレーションにおいて2つの不混和性流体間の界面を追跡・見つけるために広く用いられている。
VoF法の主なボトルネックは、計算コストが高く、非構造化グリッド上での精度が低いため、インタフェース再構成のステップである。
一般的な非構造化メッシュ上でのインタフェース再構築を高速化するために,グラフニューラルネットワーク(GNN)に基づく機械学習拡張VoF手法を提案する。
論文 参考訳(メタデータ) (2022-07-12T17:07:46Z) - Real-time simulation of parameter-dependent fluid flows through deep
learning-based reduced order models [0.2538209532048866]
還元次数モデル (ROM) はパラメータ依存の流体力学問題を高速に近似する。
ディープラーニング(DL)ベースのROMは、非線形トライアル多様体と還元力学の両方を非侵襲的に学習することで、これらの制限をすべて克服する。
得られたPOD-DL-ROMは、シリンダーベンチマークの周囲の流れ、固定された剛性ブロックに付着した弾性ビームとラミナー非圧縮性フローとの流体構造相互作用、大脳動脈瘤内の血流のほぼリアルタイムに正確な結果をもたらすことが示されている。
論文 参考訳(メタデータ) (2021-06-10T13:07:33Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。