論文の概要: MSPT: Efficient Large-Scale Physical Modeling via Parallelized Multi-Scale Attention
- arxiv url: http://arxiv.org/abs/2512.01738v1
- Date: Mon, 01 Dec 2025 14:43:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.902298
- Title: MSPT: Efficient Large-Scale Physical Modeling via Parallelized Multi-Scale Attention
- Title(参考訳): MSPT:並列化マルチスケールアテンションによる高効率大規模物理モデリング
- Authors: Pedro M. P. Curvo, Jan-Willem van de Meent, Maksim Zhdanov,
- Abstract要約: マルチスケールパッチ変換器(MSPT, Multi-Scale Patch Transformer)は,パッチ内の局所的な注意点と,粗いパッチレベルの表現に対するグローバルな注意点を組み合わせたアーキテクチャである。
提案手法は, 標準PDEベンチマーク(弾性, 塑性, 流体力学, 多孔質流れ)と大規模空力データセットで検証する。
- 参考スコア(独自算出の注目度): 8.605284164957984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key scalability challenge in neural solvers for industrial-scale physics simulations is efficiently capturing both fine-grained local interactions and long-range global dependencies across millions of spatial elements. We introduce the Multi-Scale Patch Transformer (MSPT), an architecture that combines local point attention within patches with global attention to coarse patch-level representations. To partition the input domain into spatially-coherent patches, we employ ball trees, which handle irregular geometries efficiently. This dual-scale design enables MSPT to scale to millions of points on a single GPU. We validate our method on standard PDE benchmarks (elasticity, plasticity, fluid dynamics, porous flow) and large-scale aerodynamic datasets (ShapeNet-Car, Ahmed-ML), achieving state-of-the-art accuracy with substantially lower memory footprint and computational cost.
- Abstract(参考訳): 産業規模の物理シミュレーションにおけるニューラルソルバの重要なスケーラビリティの課題は、きめ細かい局所的な相互作用と、数百万の空間要素にわたる長距離グローバルな依存関係の両方を効率的に捉えることである。
マルチスケールパッチ変換器(MSPT)は,パッチ内の局所的な注意点と,粗いパッチレベルの表現に対するグローバルな注意点を組み合わせたアーキテクチャである。
入力領域を空間的整合パッチに分割するために,不規則なジオメトリーを効率的に扱う球状木を用いる。
このデュアルスケール設計により、MSPTは単一のGPU上で数百万ポイントまでスケールできる。
我々は,PDE標準ベンチマーク(弾性,塑性,流体力学,多孔質流れ)と大規模空力データセット(ShapeNet-Car,Ahmed-ML)を用いて,メモリフットプリントと計算コストを大幅に低減し,最先端の精度を実現する。
関連論文リスト
- Adaptive Mesh-Quantization for Neural PDE Solvers [51.26961483962011]
グラフニューラルネットワークは複雑なジオメトリや境界条件に必要な不規則なメッシュを処理できるが、それでもすべてのノードで一様計算処理を適用できる。
適応メッシュ量子化(Adaptive Mesh Quantization): メッシュノード,エッジ,クラスタ特徴間の空間適応量子化であり,量子化モデルで使用されるビット幅を動的に調整する。
我々は,MP-PDEとGraphViTという2つの最先端モデルと統合して,複数のタスクのパフォーマンスを評価することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2025-11-23T14:47:24Z) - GFocal: A Global-Focal Neural Operator for Solving PDEs on Arbitrary Geometries [5.323843026995587]
変圧器に基づくニューラル作用素は偏微分方程式に対する有望な代理解法として現れる。
本稿では,グローバルおよびローカルな特徴学習と融合を同時に実施するGFocalを提案する。
実験の結果、GFocalは6つのベンチマークのうち5つのベンチマークで平均15.2%の上昇率で最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2025-08-06T14:02:39Z) - Scaling Intelligence: Designing Data Centers for Next-Gen Language Models [0.6168147650666682]
GPT-4のような1.8兆のパラメータを持つ大規模言語モデル(LLM)は、データセンターアーキテクチャの根本的な再考を要求する。
我々の研究は、FLOPS、帯域幅と容量、複数のネットワークトポロジを共同で探求する包括的な協調設計フレームワークを提供する。
我々は、重なり合う計算と通信の利点を定量化し、ハードウェアアクセラレーションされた集合体を活用し、スケールアウト領域を広げ、メモリ容量を増大させる。
論文 参考訳(メタデータ) (2025-06-17T22:29:37Z) - On Geometry-Enhanced Parameter-Efficient Fine-Tuning for 3D Scene Segmentation [52.96632954620623]
本稿では3Dポイント・クラウド・トランス用に設計された新しい幾何対応PEFTモジュールを提案する。
当社のアプローチでは,大規模3Dポイントクラウドモデルの効率的,スケーラブル,かつ幾何を考慮した微調整のための新しいベンチマークを設定している。
論文 参考訳(メタデータ) (2025-05-28T15:08:36Z) - Transolver++: An Accurate Neural Solver for PDEs on Million-Scale Geometries [67.63077028746191]
Transolver++は、百万のスケールでPDEを解くことができる、非常に並列で効率的なニューラルソルバである。
Transolver++は、シングルGPU入力能力を初めて100万ポイントに拡張する。
数百万スケールの高忠実度産業シミュレーションで20%以上の性能向上を実現している。
論文 参考訳(メタデータ) (2025-02-04T15:33:50Z) - GERA: Geometric Embedding for Efficient Point Registration Analysis [20.690695788384517]
本稿では, 純幾何学的アーキテクチャを活用し, 幾何学的情報をオフラインで構築する新たなポイントクラウド登録ネットワークを提案する。
本手法は, 3次元座標入力をオフライン構成の幾何符号化に置き換え, 一般化と安定性を改善した最初の方法である。
論文 参考訳(メタデータ) (2024-10-01T11:19:56Z) - Towards Universal Mesh Movement Networks [13.450178050669964]
我々はUniversal Mesh Movement Network (UM2N)を紹介する。
UM2Nは、異なるサイズ分布と構造を持つメッシュを動かすために、非侵入的ゼロショット方式で適用することができる。
本研究では, 実世界の津波シミュレーション事例とともに, 対流法とナビエ・ストークス法に基づく実例について検討した。
論文 参考訳(メタデータ) (2024-06-29T09:35:12Z) - DilateFormer: Multi-Scale Dilated Transformer for Visual Recognition [62.95223898214866]
我々は,視覚変換器の有効性を探究し,参加する受容領域の計算複雑性とサイズとのトレードオフを追求する。
ピラミッドアーキテクチャを用いて,MSDAブロックを低レベルに積み重ねたマルチスケールDilated Transformer (DilateFormer) と,高レベルにグローバルなマルチヘッド自己保持ブロックを構築する。
実験の結果,DilateFormerは様々な視覚タスクで最先端のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-02-03T14:59:31Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。