論文の概要: Pixel-Resolved Long-Context Learning for Turbulence at Exascale: Resolving Small-scale Eddies Toward the Viscous Limit
- arxiv url: http://arxiv.org/abs/2507.16697v1
- Date: Tue, 22 Jul 2025 15:33:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.185472
- Title: Pixel-Resolved Long-Context Learning for Turbulence at Exascale: Resolving Small-scale Eddies Toward the Viscous Limit
- Title(参考訳): 極小渦を粘性限界へ向けた画素分解長文学習
- Authors: Junqi Yin, Mijanur Palash, M. Paul Laiu, Muralikrishnan Gopalakrishnan Meena, John Gounley, Stephen M. de Bruyn Kops, Feiyi Wang, Ramanan Sankaran, Pei Zhang,
- Abstract要約: 乱流は空気力学、核融合、燃焼など多分野の応用において重要な役割を果たしている。
私たちの知る限り、これは乱流のための最初のAIモデルであり、小さな渦を散逸する範囲まで捉えることができる。
これは乱流のための最初のAIモデルで、小さな渦を散逸範囲まで捉えることができる。
- 参考スコア(独自算出の注目度): 2.4507281378419656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Turbulence plays a crucial role in multiphysics applications, including aerodynamics, fusion, and combustion. Accurately capturing turbulence's multiscale characteristics is essential for reliable predictions of multiphysics interactions, but remains a grand challenge even for exascale supercomputers and advanced deep learning models. The extreme-resolution data required to represent turbulence, ranging from billions to trillions of grid points, pose prohibitive computational costs for models based on architectures like vision transformers. To address this challenge, we introduce a multiscale hierarchical Turbulence Transformer that reduces sequence length from billions to a few millions and a novel RingX sequence parallelism approach that enables scalable long-context learning. We perform scaling and science runs on the Frontier supercomputer. Our approach demonstrates excellent performance up to 1.1 EFLOPS on 32,768 AMD GPUs, with a scaling efficiency of 94%. To our knowledge, this is the first AI model for turbulence that can capture small-scale eddies down to the dissipative range.
- Abstract(参考訳): 乱流は、空気力学、核融合、燃焼など多分野の応用において重要な役割を果たす。
乱流のマルチスケール特性を正確に捉えることは、マルチ物理相互作用の信頼できる予測には不可欠であるが、エクサスケールスーパーコンピュータや高度なディープラーニングモデルでさえも大きな課題である。
数十億のグリッドポイントから数兆のグリッドポイントまで、乱気流を表すのに必要な極端解像度のデータは、視覚変換器のようなアーキテクチャに基づくモデルでは、計算コストが禁じられている。
この課題に対処するために,数十億から数百万へのシーケンス長を削減できるマルチスケール階層型乱流変換器と,スケーラブルな長文学習を実現する新しいRingXシーケンス並列化手法を導入する。
私たちはFrontierスーパーコンピュータ上でスケーリングとサイエンスを実行します。
提案手法は,32,768AMDGPU上で1.1EFLOPSまでの優れた性能を示し,スケーリング効率は94%である。
私たちの知る限り、これは乱流のための最初のAIモデルであり、小さな渦を散逸する範囲まで捉えることができる。
関連論文リスト
- Linear Attention with Global Context: A Multipole Attention Mechanism for Vision and Physics [42.41787036246253]
本稿では,マルチポール注意ニューラル演算子 (MANO) について紹介する。
我々は,MANOがViTやSwin Transformerといった最先端モデルと競合する一方で,実行時およびピークメモリ使用量を桁違いに削減していることを示す。
論文 参考訳(メタデータ) (2025-07-03T16:05:26Z) - Learning Phase Distortion with Selective State Space Models for Video Turbulence Mitigation [13.073844945948132]
大気の乱流は、長距離イメージングシステムにおける画像劣化の主な原因である。
多くの深層学習に基づく乱流緩和法 (TM) が提案されているが, それらは遅い, メモリ不足であり, 一般化が不十分である。
本稿では,(1)選択状態空間モデル(MambaTM)に基づく乱流緩和ネットワークと(2)学習遅延位相歪み(LPD)の2つの概念に基づく新しいTM法を提案する。
提案手法は,様々な合成および実世界のTMベンチマークにおいて,推定速度が大幅に向上した現状のネットワークを超越した手法である。
論文 参考訳(メタデータ) (2025-04-03T15:33:18Z) - Fractal-IR: A Unified Framework for Efficient and Scalable Image Restoration [108.83750852785582]
Fractal-IRを提案する。Fractal-IRはフラクタルベースの設計で、局所情報を広範囲に繰り返し拡張することで、劣化した画像を徐々に洗練する。
このフラクタルアーキテクチャは、早期の局所的な詳細を自然に捉え、より深いフラクタル段階のグローバルな文脈へシームレスに遷移する。
また,Fractal-IRは,高分解能,デノナイジング,JPEGアーティファクト除去,悪天候条件のIR,動きの鈍化,デフォーカスの鈍化,復調といった7つの一般的な画像修復作業において,最先端の性能を実現していることを示す。
論文 参考訳(メタデータ) (2025-03-22T17:43:27Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Can Looped Transformers Learn to Implement Multi-step Gradient Descent for In-context Learning? [69.4145579827826]
収束ランドスケープの勾配非性アルゴリズムにもかかわらず、回帰損失に高速な流れを示す。
この設定における多層トランスの理論的解析はこれが初めてである。
論文 参考訳(メタデータ) (2024-10-10T18:29:05Z) - Long-range Turbulence Mitigation: A Large-scale Dataset and A Coarse-to-fine Framework [12.869617522032986]
大規模実時間長距離大気乱流データセット(RLR-AT)を構築した。
このデータセットは、1Kmから13Kmまでの距離に1500の乱流配列を含む。
本研究では, 動的乱流と静的背景に協調して, 強歪みの処理を行う粗大なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:38:02Z) - Advancing Plain Vision Transformer Towards Remote Sensing Foundation
Model [97.9548609175831]
約1億のパラメータを持つプレーンビジョントランスフォーマーを利用して、リモートセンシングタスク用にカスタマイズされた大規模なビジョンモデルを提案する。
具体的には、RS画像における大きな画像サイズと様々な向きのオブジェクトを扱うために、回転する様々なウィンドウアテンションを提案する。
検出タスクの実験は、DOTA-V1.0データセット上で81.16%のmAPを達成したすべての最先端モデルよりも、我々のモデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-08-08T09:08:40Z) - Single Frame Atmospheric Turbulence Mitigation: A Benchmark Study and A
New Physics-Inspired Transformer Model [82.23276183684001]
本研究では,大気乱流の画像化のための物理インスピレーション付き変圧器モデルを提案する。
提案ネットワークは変圧器ブロックのパワーを利用して動的乱流歪みマップを共同で抽出する。
そこで本研究では,従来の客観的指標と,テキスト認識精度を用いたタスク駆動計測の両方で評価可能な,実世界の乱流データセットを新たに2つ提示する。
論文 参考訳(メタデータ) (2022-07-20T17:09:16Z) - Imaging through the Atmosphere using Turbulence Mitigation Transformer [15.56320865332645]
大気の乱流によって歪んだ画像の復元は、長距離イメージングの応用において、ユビキタスな問題である。
既存のディープラーニングベースの手法は、特定のテスト条件において有望な結果を示している。
本稿では,これらの問題に対処する乱流緩和トランス (TMT) を提案する。
論文 参考訳(メタデータ) (2022-07-13T18:33:26Z) - EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense
Prediction [67.11722682878722]
この研究は、新しいマルチスケール線形注意を持つ高解像度ビジョンモデルのファミリーであるEfficientViTを提示する。
マルチスケール線形注意は,グローバルな受容場とマルチスケール学習を実現する。
EfficientViTは従来の最先端モデルよりも優れたパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2022-05-29T20:07:23Z) - Atmospheric Turbulence Removal with Complex-Valued Convolutional Neural
Network [2.657505380055164]
大気の乱流は視覚的イメージを歪め、人間と機械の両方による情報解釈には常に問題となる。
ディープラーニングベースのアプローチが注目されているが、現在は静的シーンのみに効率よく機能している。
本稿では,動的シーンをサポートするための短時間の時間的スパンニングを提供する,新しい学習ベースフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-14T14:29:32Z) - IA-RED$^2$: Interpretability-Aware Redundancy Reduction for Vision
Transformers [81.31885548824926]
自己注意型モデルであるTransformerは近年,コンピュータビジョン分野における主要なバックボーンになりつつある。
解釈可能性を考慮した冗長度低減フレームワーク(IA-RED$2$)を提案する。
画像タスクとビデオタスクの両方で広範囲に実験を行い、最大1.4倍のスピードアップを実現しました。
論文 参考訳(メタデータ) (2021-06-23T18:29:23Z) - Efficient Transformers in Reinforcement Learning using Actor-Learner
Distillation [91.05073136215886]
「Actor-Learner Distillation」は、大容量学習者モデルから小容量学習者モデルへ学習の進捗を移す。
Actor-Learner Distillation を用いて,トランスフォーマー学習モデルの明確なサンプル効率向上を再現する,いくつかの挑戦的なメモリ環境を実証する。
論文 参考訳(メタデータ) (2021-04-04T17:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。