論文の概要: SeisRDT: Latent Diffusion Model Based On Representation Learning For Seismic Data Interpolation And Reconstruction
- arxiv url: http://arxiv.org/abs/2503.21791v1
- Date: Mon, 17 Mar 2025 10:16:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-06 07:30:18.902676
- Title: SeisRDT: Latent Diffusion Model Based On Representation Learning For Seismic Data Interpolation And Reconstruction
- Title(参考訳): SeisRDT: 地震データ補間と復元のための表現学習に基づく潜時拡散モデル
- Authors: Shuang Wang, Fei Deng, Peifan Jiang, Zezheng Ni, Bin Wang,
- Abstract要約: 地理的、物理的、経済的要因などの制限のため、収集された地震データは、しばしば痕跡を欠いている。
従来の地震データ再構成手法は、多数の経験的パラメータを選択し、大規模な連続的欠落トレースを扱うのに苦労する課題に直面している。
地震データ再構成のための表現学習を利用した潜時拡散変換器を提案する。
- 参考スコア(独自算出の注目度): 11.530476559185878
- License:
- Abstract: Due to limitations such as geographic, physical, or economic factors, collected seismic data often have missing traces. Traditional seismic data reconstruction methods face the challenge of selecting numerous empirical parameters and struggle to handle large-scale continuous missing traces. With the advancement of deep learning, various diffusion models have demonstrated strong reconstruction capabilities. However, these UNet-based diffusion models require significant computational resources and struggle to learn the correlation between different traces in seismic data. To address the complex and irregular missing situations in seismic data, we propose a latent diffusion transformer utilizing representation learning for seismic data reconstruction. By employing a mask modeling scheme based on representation learning, the representation module uses the token sequence of known data to infer the token sequence of unknown data, enabling the reconstructed data from the diffusion model to have a more consistent data distribution and better correlation and accuracy with the known data. We propose the Representation Diffusion Transformer architecture, and a relative positional bias is added when calculating attention, enabling the diffusion model to achieve global modeling capability for seismic data. Using a pre-trained data compression model compresses the training and inference processes of the diffusion model into a latent space, which, compared to other diffusion model-based reconstruction methods, reduces computational and inference costs. Reconstruction experiments on field and synthetic datasets indicate that our method achieves higher reconstruction accuracy than existing methods and can handle various complex missing scenarios.
- Abstract(参考訳): 地理的、物理的、経済的要因などの制限のため、収集された地震データは、しばしば痕跡を欠いている。
従来の地震データ再構成手法は、多数の経験的パラメータを選択し、大規模な連続的欠落トレースを扱うのに苦労する課題に直面している。
ディープラーニングの進歩により、様々な拡散モデルが強力な再構成能力を示している。
しかし、これらのUNetベースの拡散モデルは、重要な計算資源を必要とし、地震データ内の異なるトレース間の相関を学習するのに苦労する。
本研究では, 地震データ再構成における表現学習を利用した潜時拡散変圧器を提案する。
表現モジュールは、表現学習に基づくマスクモデリングスキームを用いることで、既知のデータのトークンシーケンスを用いて未知データのトークンシーケンスを推論し、拡散モデルからの再構成データをより一貫性のあるデータ分散と、既知のデータとの相関と精度の向上を実現する。
本稿では,Representation Diffusion Transformerアーキテクチャを提案し,注意力を計算する際に相対的な位置バイアスを加えることにより,地震データに対するグローバルなモデリング機能を実現する。
事前訓練されたデータ圧縮モデルを用いることで、拡散モデルのトレーニングと推論プロセスを潜在空間に圧縮し、他の拡散モデルに基づく再構成手法と比較して計算と推論のコストを低減させる。
フィールドおよび合成データセットの再構成実験により,提案手法は既存手法よりも高精度に再現でき,複雑なシナリオを処理できることが示唆された。
関連論文リスト
- Latent diffusion models for parameterization and data assimilation of facies-based geomodels [0.0]
拡散モデルは、ランダムノイズを特徴とする入力場から新しい地質学的実現を生成するために訓練される。
遅延拡散モデルは、ジオモデリングソフトウェアからのサンプルと視覚的に整合した実現を提供する。
論文 参考訳(メタデータ) (2024-06-21T01:32:03Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - SeisFusion: Constrained Diffusion Model with Input Guidance for 3D Seismic Data Interpolation and Reconstruction [26.02191880837226]
本研究では3次元地震データに適した新しい拡散モデル再構成フレームワークを提案する。
拡散モデルに3次元ニューラルネットワークアーキテクチャを導入し、2次元拡散モデルを3次元空間に拡張することに成功した。
本手法は、フィールドデータセットと合成データセットの両方に適用した場合、より優れた再構成精度を示す。
論文 参考訳(メタデータ) (2024-03-18T05:10:13Z) - Dynamical Regimes of Diffusion Models [14.797301819675454]
空間の次元とデータ数が大きい体制における生成拡散モデルについて検討する。
本研究は, 逆向き発生拡散過程における3つの異なる動的状態を明らかにするものである。
崩壊時間の次元とデータ数への依存性は、拡散モデルにおける次元の呪いの徹底的な評価を与える。
論文 参考訳(メタデータ) (2024-02-28T17:19:26Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - On the Limitation of Diffusion Models for Synthesizing Training Datasets [5.384630221560811]
本稿では, 実試料から再構成した合成試料を拡散・逆過程により解析することにより, 合成試料と実試料とのギャップを解明する。
その結果, 合成データセットは, 最先端拡散モデルを用いても, 実際のデータセットの分類性能を低下させることがわかった。
論文 参考訳(メタデータ) (2023-11-22T01:42:23Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。