論文の概要: Mitigation of Spatial Nonstationarity with Vision Transformers
- arxiv url: http://arxiv.org/abs/2212.04633v1
- Date: Fri, 9 Dec 2022 02:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:49:28.127355
- Title: Mitigation of Spatial Nonstationarity with Vision Transformers
- Title(参考訳): 視覚変換器による空間非定常性の緩和
- Authors: Lei Liu, Javier E. Santos, Ma\v{s}a Prodanovi\'c, and Michael J. Pyrcz
- Abstract要約: 深層学習モデル予測性能に対する2種類の測地的空間非定常性の影響を示す。
本稿では,自己注意モデル(ビジョン・トランスフォーマー)を用いて,そのような影響の緩和を提案する。
- 参考スコア(独自算出の注目度): 1.690637178959708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spatial nonstationarity, the location variance of features' statistical
distributions, is ubiquitous in many natural settings. For example, in
geological reservoirs rock matrix porosity varies vertically due to
geomechanical compaction trends, in mineral deposits grades vary due to
sedimentation and concentration processes, in hydrology rainfall varies due to
the atmosphere and topography interactions, and in metallurgy crystalline
structures vary due to differential cooling. Conventional geostatistical
modeling workflows rely on the assumption of stationarity to be able to model
spatial features for the geostatistical inference. Nevertheless, this is often
not a realistic assumption when dealing with nonstationary spatial data and
this has motivated a variety of nonstationary spatial modeling workflows such
as trend and residual decomposition, cosimulation with secondary features, and
spatial segmentation and independent modeling over stationary subdomains. The
advent of deep learning technologies has enabled new workflows for modeling
spatial relationships. However, there is a paucity of demonstrated best
practice and general guidance on mitigation of spatial nonstationarity with
deep learning in the geospatial context. We demonstrate the impact of two
common types of geostatistical spatial nonstationarity on deep learning model
prediction performance and propose the mitigation of such impacts using
self-attention (vision transformer) models. We demonstrate the utility of
vision transformers for the mitigation of nonstationarity with relative errors
as low as 10%, exceeding the performance of alternative deep learning methods
such as convolutional neural networks. We establish best practice by
demonstrating the ability of self-attention networks for modeling large-scale
spatial relationships in the presence of commonly observed geospatial
nonstationarity.
- Abstract(参考訳): 特徴の統計分布の場所分散である空間的非定常性は多くの自然環境においてユビキタスである。
例えば、地質貯留層では、岩石マトリクスのポーシティは、機械的圧縮傾向により垂直に変化し、鉱床の勾配は堆積や濃度の過程によって変化し、水文学の降水量は大気と地形の相互作用によって変化し、金属の結晶構造は差分冷却により変化する。
従来の統計モデリングのワークフローは、静止性の仮定に頼り、測地的推論のための空間的特徴をモデル化することができる。
しかし、これは非定常空間データを扱う場合の現実的な仮定ではなく、傾向や残留分解、二次的特徴との共役、静止部分領域上の空間分割と独立モデリングなど、様々な非定常空間モデリングワークフローを動機付けている。
深層学習技術の出現により、空間関係をモデリングするための新しいワークフローが実現された。
しかし,地理空間的文脈における空間的非定常性と深層学習の緩和に関する実証的ベストプラクティスと一般ガイダンスが存在する。
本研究では,2種類の測地空間非定常性が深層学習モデル予測性能に及ぼす影響を実証し,自己注意モデル(ビジョン・トランスフォーマー)を用いてその影響を緩和することを提案する。
本研究では,畳み込みニューラルネットワークなどの代替深層学習手法の性能を上回って,相対誤差が10%以下の非定常性軽減のための視覚トランスフォーマーの有用性を実証する。
地理空間的非定常性の存在下での大規模空間的関係をモデル化するセルフ・アテンション・ネットワークの能力を示すことにより,ベストプラクティスを確立する。
関連論文リスト
- A class of modular and flexible covariate-based covariance functions for nonstationary spatial modeling [0.0]
固定された観測可能な空間情報に依存する共分散関数のクラスを示す。
このモデルは、辺標準偏差、幾何学的異方性、滑らかさなど、異なる非定常性源に対する別々の構造を可能にする。
シミュレーション研究を通じて提示されたモデルの性能解析とスイスの降水データへの適用について述べる。
論文 参考訳(メタデータ) (2024-10-22T05:53:25Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Deep autoregressive modeling for land use land cover [0.0]
ランド・ユース/ランド・カバー・モデリング(LULC)は、地理的特徴と地形、生態学、人間発達に関連する異なる空間パターンの間の長距離依存関係のために難しい課題である。
土地利用の空間パターンのモデル化とコンピュータビジョンからのイメージインペインティングの課題との密接な関係を同定し,約1900万個のLULCをモデル化するための改良されたPixelCNNアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-01-02T18:03:57Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Strategic Geosteeering Workflow with Uncertainty Quantification and Deep
Learning: A Case Study on the Goliat Field [0.0]
本稿では,オフラインとオンラインのフェーズからなる実践的なワークフローを提案する。
オフラインフェーズには、不確実な事前ニアウェルジオモデルのトレーニングと構築が含まれている。
オンラインフェーズでは、フレキシブルな反復アンサンブルスムーズ(FlexIES)を使用して、極深電磁データのリアルタイム同化を行う。
論文 参考訳(メタデータ) (2022-10-27T15:38:26Z) - Few Shot Generative Model Adaption via Relaxed Spatial Structural
Alignment [130.84010267004803]
限られたデータでGAN(Generative Adversarial Network)を訓練することは難しい課題である。
実現可能な解決策は、大規模なソースドメインで十分に訓練されたGANから始め、ターゲットドメインにいくつかのサンプルで適応することである。
本研究では,適応時の対象生成モデルのキャリブレーションを行うための緩和された空間構造アライメント手法を提案する。
論文 参考訳(メタデータ) (2022-03-06T14:26:25Z) - Deep-learning-based coupled flow-geomechanics surrogate model for CO$_2$
sequestration [4.635171370680939]
3次元リカレントr-u-netモデルは、深い畳み込みとリカレントニューラルネットワークを組み合わせて、飽和、圧力、表面変位場の空間分布と時間変化を捉える。
サーロゲートモデルは、貯留層内の3D CO2飽和と圧力場、および地球の表面の2D変位マップを予測するために訓練されています。
論文 参考訳(メタデータ) (2021-05-04T07:34:15Z) - Evidential Sparsification of Multimodal Latent Spaces in Conditional
Variational Autoencoders [63.46738617561255]
訓練された条件付き変分オートエンコーダの離散潜時空間をスパース化する問題を考察する。
顕在的理論を用いて、特定の入力条件から直接証拠を受け取る潜在クラスを特定し、そうでないクラスをフィルタリングする。
画像生成や人間の行動予測などの多様なタスクの実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-10-19T01:27:21Z) - Semiparametric Bayesian Forecasting of Spatial Earthquake Occurrences [77.68028443709338]
本稿では, Epidemic Type Aftershock Sequence (ETAS) モデルのベイズ的完全定式化を提案する。
地理的領域における主震の発生は不均一な空間的点過程に従うと仮定される。
論文 参考訳(メタデータ) (2020-02-05T10:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。