論文の概要: CD-TVD: Contrastive Diffusion for 3D Super-Resolution with Scarce High-Resolution Time-Varying Data
- arxiv url: http://arxiv.org/abs/2508.08173v1
- Date: Mon, 11 Aug 2025 16:51:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.218749
- Title: CD-TVD: Contrastive Diffusion for 3D Super-Resolution with Scarce High-Resolution Time-Varying Data
- Title(参考訳): CD-TVD:3次元超解法における高分解能時間変化データとの対比拡散
- Authors: Chongke Bi, Xin Gao, Jiangkang Deng, Guan,
- Abstract要約: CD-TVDは、コントラスト学習と改良された拡散ベース超解像モデルを組み合わせたフレームワークである。
流体および大気シミュレーションデータセットの結果、CD-TVDが正確で資源効率のよい3D超解像を提供することを確認した。
- 参考スコア(独自算出の注目度): 10.632400200999266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale scientific simulations require significant resources to generate high-resolution time-varying data (TVD). While super-resolution is an efficient post-processing strategy to reduce costs, existing methods rely on a large amount of HR training data, limiting their applicability to diverse simulation scenarios. To address this constraint, we proposed CD-TVD, a novel framework that combines contrastive learning and an improved diffusion-based super-resolution model to achieve accurate 3D super-resolution from limited time-step high-resolution data. During pre-training on historical simulation data, the contrastive encoder and diffusion superresolution modules learn degradation patterns and detailed features of high-resolution and low-resolution samples. In the training phase, the improved diffusion model with a local attention mechanism is fine-tuned using only one newly generated high-resolution timestep, leveraging the degradation knowledge learned by the encoder. This design minimizes the reliance on large-scale high-resolution datasets while maintaining the capability to recover fine-grained details. Experimental results on fluid and atmospheric simulation datasets confirm that CD-TVD delivers accurate and resource-efficient 3D super-resolution, marking a significant advancement in data augmentation for large-scale scientific simulations. The code is available at https://github.com/Xin-Gao-private/CD-TVD.
- Abstract(参考訳): 大規模な科学シミュレーションでは、高解像度の時間変化データ(TVD)を生成するためにかなりのリソースを必要とする。
超解像はコストを削減するための効率的な後処理戦略であるが、既存の手法は大量のHRトレーニングデータに依存しており、様々なシミュレーションシナリオに適用可能である。
この制約に対処するために,時間段階の高解像度データから高精度な3次元超解像を実現するために,コントラスト学習と拡散に基づく改良された超解像モデルを組み合わせた新しいフレームワークCD-TVDを提案する。
過去のシミュレーションデータの事前学習中に、コントラストエンコーダと拡散超解像モジュールは、分解パターンと高分解能および低分解能サンプルの詳細な特徴を学習する。
トレーニング段階では、局所的な注意機構を持つ拡散モデルの改善を、1つの新たに生成された高分解能時間ステップのみを用いて微調整し、エンコーダが学習した劣化知識を活用する。
この設計は、詳細な詳細を復元する能力を維持しながら、大規模な高解像度データセットへの依存を最小限に抑える。
流体・大気シミュレーションデータセットによる実験結果から、CD-TVDは正確で資源効率のよい3D超解像を提供することが明らかとなり、大規模科学シミュレーションにおけるデータ拡張の著しい進展を示している。
コードはhttps://github.com/Xin-Gao-private/CD-TVDで入手できる。
関連論文リスト
- SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling [79.56581753856452]
SparseFlexは、新しいスパース構造のアイソサーフェス表現で、レンダリング損失から最大10243ドルの解像度で、差別化可能なメッシュ再構築を可能にする。
SparseFlexは、高解像度で差別化可能なメッシュ再構成とレンダリングロスによる生成を可能にすることで、3D形状の表現とモデリングの最先端性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-27T17:46:42Z) - Factorized Implicit Global Convolution for Automotive Computational Fluid Dynamics Prediction [52.32698071488864]
非常に大きな3DメッシュのCFD問題を効率的に解く新しいアーキテクチャであるFactized Implicit Global Convolution (FIGConv)を提案する。
FIGConvは、既存の3DニューラルCFDモデルよりも大幅に改善された2次複雑性の$O(N2)$を達成する。
業界標準のAhmedボディデータセットと大規模DrivAerNetデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2025-02-06T18:57:57Z) - Foundation Model for Lossy Compression of Spatiotemporal Scientific Data [11.494915987840876]
損失のある科学的データ圧縮のための基礎モデル(FM)を提案する。
可変オートエンコーダ(E)と超高次構造と超高分解能(SR)モジュールを組み合わせる。
論文 参考訳(メタデータ) (2024-12-22T22:57:08Z) - A Staged Deep Learning Approach to Spatial Refinement in 3D Temporal Atmospheric Transport [0.0]
本稿では,2段テンポラル3次元超解像(DST3D-UNet-SR)モデルを提案する。
このモジュールは、低分解能時間データから複雑な地形における羽根の過渡的な進化を予測する時間モジュール(TM)と、その空間分解モジュール(SRM)の2つの逐次モジュールから構成され、その結果、予測の空間分解能が向上する。
論文 参考訳(メタデータ) (2024-12-14T19:43:48Z) - Memory-efficient High-resolution OCT Volume Synthesis with Cascaded Amortized Latent Diffusion Models [48.87160158792048]
本稿では,高分解能CTボリュームをメモリ効率よく合成できるCA-LDM(Cascaded amortized Latent diffusion model)を提案する。
公開高解像度OCTデータセットを用いた実験により、我々の合成データは、既存の手法の能力を超越した、現実的な高解像度かつグローバルな特徴を持つことが示された。
論文 参考訳(メタデータ) (2024-05-26T10:58:22Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - PSRFlow: Probabilistic Super Resolution with Flow-Based Models for
Scientific Data [11.15523311079383]
PSRFlowは、科学データ超解像のための新しい正規化フローベース生成モデルである。
以上の結果から,既存の手法と比較して,優れた性能とロバストな不確実性定量化が得られた。
論文 参考訳(メタデータ) (2023-08-08T22:10:29Z) - Recurrent Multi-scale Transformer for High-Resolution Salient Object
Detection [68.65338791283298]
Salient Object Detection (SOD) は、画像やビデオの中で最も顕著なオブジェクトを識別し、セグメント化することを目的としている。
従来のSOD法は主に解像度の低い画像に限られており、高分解能SODの開発に適応することが困難である。
本研究ではまず,2K-8K解像度で10,500個の高品質なアノテート画像を含む新しいHRS10Kデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-07T17:49:04Z) - A comparative study of various Deep Learning techniques for
spatio-temporal Super-Resolution reconstruction of Forced Isotropic Turbulent
flows [0.45935798913942893]
本研究では,様々な最先端機械学習技術を用いて,空間的・時間的に乱流場の超解像解析を行う。
この研究で使用されるデータセットは、ジョンズ・ホプキンス乱流データベースの一部である「等方性1024粗い」データセットから抽出される。
論文 参考訳(メタデータ) (2021-07-07T17:16:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。