論文の概要: T-GMSI: A transformer-based generative model for spatial interpolation under sparse measurements
- arxiv url: http://arxiv.org/abs/2412.09886v1
- Date: Fri, 13 Dec 2024 06:01:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:01:58.011822
- Title: T-GMSI: A transformer-based generative model for spatial interpolation under sparse measurements
- Title(参考訳): T-GMSI:スパース測定による空間補間のためのトランスフォーマーを用いた生成モデル
- Authors: Xiangxi Tian, Jie Shan,
- Abstract要約: 空間補間のためのトランスフォーマーベース生成モデル (T-GMSI) を提案する。
T-GMSIは、従来の畳み込みベースの手法をViTに置き換えて特徴抽出とDEMを行い、特徴認識損失関数を組み込んで精度を高める。
T-GMSIは、70%以上の幅を持つデータセットから高品質な標高面を生成するのに優れ、微調整なしで様々な風景を横断する強い伝達性を示す。
- 参考スコア(独自算出の注目度): 1.0931557410591526
- License:
- Abstract: Generating continuous environmental models from sparsely sampled data is a critical challenge in spatial modeling, particularly for topography. Traditional spatial interpolation methods often struggle with handling sparse measurements. To address this, we propose a Transformer-based Generative Model for Spatial Interpolation (T-GMSI) using a vision transformer (ViT) architecture for digital elevation model (DEM) generation under sparse conditions. T-GMSI replaces traditional convolution-based methods with ViT for feature extraction and DEM interpolation while incorporating a terrain feature-aware loss function for enhanced accuracy. T-GMSI excels in producing high-quality elevation surfaces from datasets with over 70% sparsity and demonstrates strong transferability across diverse landscapes without fine-tuning. Its performance is validated through extensive experiments, outperforming traditional methods such as ordinary Kriging (OK) and natural neighbor (NN) and a conditional generative adversarial network (CGAN)-based model (CEDGAN). Compared to OK and NN, T-GMSI reduces root mean square error (RMSE) by 40% and 25% on airborne lidar data and by 23% and 10% on spaceborne lidar data. Against CEDGAN, T-GMSI achieves a 20% RMSE improvement on provided DEM data, requiring no fine-tuning. The ability of model on generalizing to large, unseen terrains underscores its transferability and potential applicability beyond topographic modeling. This research establishes T-GMSI as a state-of-the-art solution for spatial interpolation on sparse datasets and highlights its broader utility for other sparse data interpolation challenges.
- Abstract(参考訳): 余分なサンプルデータから連続的な環境モデルを生成することは、特に地形学において、空間モデリングにおいて重要な課題である。
伝統的な空間補間法は、しばしばスパース測定を扱うのに苦労する。
そこで我々は,空間補間のためのトランスフォーマーベース生成モデル (T-GMSI) を提案する。
T-GMSIは、地形特徴認識損失関数を組み込んで精度を高めつつ、特徴抽出とDEM補間のために従来の畳み込み方式をViTに置き換える。
T-GMSIは、70%以上の幅を持つデータセットから高品質な標高面を生成するのに優れ、微調整なしで様々な風景を横断する強い伝達性を示す。
その性能は、通常のKriging(OK)やNatural neighbor(NN)といった従来の手法や、CGAN(CGAN)ベースのモデル(CEDGAN)よりも優れる広範な実験によって検証されている。
OK と NN と比較して、T-GMSI は空中ライダーデータでは 40% と 25% のルート平均二乗誤差 (RMSE) を 23% と 10% 削減する。
CEDGANに対してT-GMSIは、提供されるDEMデータに対して20%のRMSE改善を実現し、微調整は不要である。
大規模で目に見えない地形への一般化のモデル化能力は、地形モデリングを超えて、その転送可能性と潜在的な適用可能性を示している。
本研究は、スパースデータセット上の空間補間のための最先端ソリューションとしてT-GMSIを確立し、スパースデータ補間課題に対するその幅広い有用性を強調した。
関連論文リスト
- Generative Adversarial Models for Extreme Geospatial Downscaling [0.0]
本稿では,非常に高いスケーリング係数に対応可能な条件付きGANに基づく地理空間ダウンスケーリング手法について述べる。
この手法は、既存の手法では無視されがちなダウンスケーリングプロセスに固有の不確実性を明確に考慮する。
1つの決定論的結果ではなく、多量の高分解能サンプルを生成する。
論文 参考訳(メタデータ) (2024-02-21T18:25:04Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Deep autoregressive modeling for land use land cover [0.0]
ランド・ユース/ランド・カバー・モデリング(LULC)は、地理的特徴と地形、生態学、人間発達に関連する異なる空間パターンの間の長距離依存関係のために難しい課題である。
土地利用の空間パターンのモデル化とコンピュータビジョンからのイメージインペインティングの課題との密接な関係を同定し,約1900万個のLULCをモデル化するための改良されたPixelCNNアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-01-02T18:03:57Z) - Subsurface Characterization using Ensemble-based Approaches with Deep
Generative Models [2.184775414778289]
逆モデリングは、計算コストとスパースデータセットによる予測精度の低下により、不適切な高次元アプリケーションに限られる。
Wasserstein Geneversarative Adrial Network と Gradient Penalty (WGAN-GP) と Ensemble Smoother を多重データ同化 (ES-MDA) と組み合わせる。
WGAN-GPは低次元の潜伏空間から高次元K場を生成するために訓練され、ES-MDAは利用可能な測定値を同化することにより潜伏変数を更新する。
論文 参考訳(メタデータ) (2023-10-02T01:27:10Z) - Generative adversarial networks for data-scarce spectral applications [0.0]
合成スペクトルデータ生成分野におけるGANの応用について報告する。
CWGANは,低データ方式の性能向上を図り,サロゲートモデルとして機能することを示す。
論文 参考訳(メタデータ) (2023-07-14T16:27:24Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - One-Shot Domain Adaptive and Generalizable Semantic Segmentation with
Class-Aware Cross-Domain Transformers [96.51828911883456]
セマンティックセグメンテーションのための教師なしのsim-to-realドメイン適応(UDA)は、シミュレーションデータに基づいて訓練されたモデルの実世界のテスト性能を改善することを目的としている。
従来のUDAは、適応のためのトレーニング中に利用可能なラベルのない実世界のサンプルが豊富にあると仮定することが多い。
実世界のデータサンプルが1つしか利用できない,一発の教師なしシム・トゥ・リアル・ドメイン適応(OSUDA)と一般化問題について検討する。
論文 参考訳(メタデータ) (2022-12-14T15:54:15Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Score-based Generative Modeling in Latent Space [93.8985523558869]
スコアベース生成モデル(SGM)は,最近,サンプル品質と分布範囲の両面で顕著な結果を示した。
本稿では,Latent Score-based Generative Model (LSGM)を提案する。
データから潜在空間への移動により、より表現力のある生成モデルをトレーニングし、非連続データにSGMを適用し、よりスムーズなSGMをより小さな空間で学習することができる。
論文 参考訳(メタデータ) (2021-06-10T17:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。