論文の概要: Implicit Augmentation from Distributional Symmetry in Turbulence Super-Resolution
- arxiv url: http://arxiv.org/abs/2509.20683v1
- Date: Thu, 25 Sep 2025 02:31:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.665576
- Title: Implicit Augmentation from Distributional Symmetry in Turbulence Super-Resolution
- Title(参考訳): 乱流超解法における分布対称性からの帰納的増大
- Authors: Julia Balla, Jeremiah Bailey, Ali Backour, Elyssa Hofgard, Tommi Jaakkola, Tess Smidt, Ryley McConkey,
- Abstract要約: 標準的な畳み込みニューラルネットワーク(CNN)は、明示的な拡張や特殊なアーキテクチャを使わずに部分的に回転対称性を得られることを示す。
異方性が異なる3次元チャネルフローを用いて、より等方性中間平面データに基づいてトレーニングされたモデルが、より低い等方性誤差を実現する。
これらの結果は, 回転対称性が学習アルゴリズムに明示的に組み込まれなければならないこと, 乱流から直接得られることを明らかにする。
- 参考スコア(独自算出の注目度): 2.4095472682599417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The immense computational cost of simulating turbulence has motivated the use of machine learning approaches for super-resolving turbulent flows. A central challenge is ensuring that learned models respect physical symmetries, such as rotational equivariance. We show that standard convolutional neural networks (CNNs) can partially acquire this symmetry without explicit augmentation or specialized architectures, as turbulence itself provides implicit rotational augmentation in both time and space. Using 3D channel-flow subdomains with differing anisotropy, we find that models trained on more isotropic mid-plane data achieve lower equivariance error than those trained on boundary layer data, and that greater temporal or spatial sampling further reduces this error. We show a distinct scale-dependence of equivariance error that occurs regardless of dataset anisotropy that is consistent with Kolmogorov's local isotropy hypothesis. These results clarify when rotational symmetry must be explicitly incorporated into learning algorithms and when it can be obtained directly from turbulence, enabling more efficient and symmetry-aware super-resolution.
- Abstract(参考訳): 乱流をシミュレーションする膨大な計算コストは、超解流乱流に対する機械学習アプローチの利用を動機付けている。
中心的な課題は、学習されたモデルが回転同値のような物理的対称性を尊重することを保証することである。
乱流自体が時間と空間の両方で暗黙的な回転増大をもたらすため、標準的な畳み込みニューラルネットワーク(CNN)は明示的な拡張や特殊なアーキテクチャなしでこの対称性を部分的に取得できることを示す。
異方性が異なる3次元チャネルフローサブドメインを用いて、より等方性中間平面データで訓練されたモデルが境界層データで訓練されたモデルよりも低い等方性誤差を達成し、時間的あるいは空間的なサンプリングにより、この誤差をさらに減少させる。
我々は、コルモゴロフの局所等方性仮説と一致するデータセットの異方性によらず、異なるスケール依存性の等方性誤差を示す。
これらの結果は, 回転対称性が学習アルゴリズムに明示的に組み込まれなければならないこと, 乱流から直接得られること, より効率的で対称性に敏感な超解像を実現すること, などを明らかにする。
関連論文リスト
- Harnessing Equivariance: Modeling Turbulence with Graph Neural Networks [0.0]
グラフニューラルネットワーク(GNN)に基づく大規模渦シミュレーション(LES)における乱流モデリングの新しい手法を提案する。
GNNは、ナヴィエ・ストークス方程式の離散回転、反射、翻訳対称性をモデルアーキテクチャに組み込む。
提案手法の適合性について, 均質等方性乱流(HIT)と乱流流の2つの正準試験例について検討した。
論文 参考訳(メタデータ) (2025-04-10T13:37:54Z) - How does ion temperature gradient turbulence depend on magnetic geometry? Insights from data and machine learning [3.5086936665880017]
磁気幾何学は核融合プラズマにおける乱流輸送のレベルに大きな影響を及ぼす。
我々は、複数の機械学習手法と200,000以上の非線形シミュレーションのデータセットを用いて、この依存を分析した。
畳み込みニューラルネットワーク(CNN)や決定木を含む複数の回帰モデルは、熱流束に対して合理的な予測力を得ることができる。
論文 参考訳(メタデータ) (2025-02-17T10:48:26Z) - Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [41.50816120270017]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - Stochastic Reconstruction of Gappy Lagrangian Turbulent Signals by Conditional Diffusion Models [1.7810134788247751]
本研究では, 乱流によって受動的に対流する小物体の軌道に沿って, 空間・速度の欠落を再現する手法を提案する。
近年提案されているデータ駆動機械学習技術である条件付き生成拡散モデルを利用する。
論文 参考訳(メタデータ) (2024-10-31T14:26:10Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - On Error Propagation of Diffusion Models [77.91480554418048]
DMのアーキテクチャにおける誤り伝播を数学的に定式化するための理論的枠組みを開発する。
累積誤差を正規化項として適用して誤差伝搬を低減する。
提案した正規化はエラーの伝播を低減し,バニラDMを大幅に改善し,以前のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-08-09T15:31:17Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Learning Discretized Neural Networks under Ricci Flow [48.47315844022283]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。