論文の概要: Seeing Through the Clouds: Cloud Gap Imputation with Prithvi Foundation Model
- arxiv url: http://arxiv.org/abs/2404.19609v1
- Date: Tue, 30 Apr 2024 15:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 13:55:56.804262
- Title: Seeing Through the Clouds: Cloud Gap Imputation with Prithvi Foundation Model
- Title(参考訳): クラウドを通して見る: Prithvi Foundation Modelによるクラウドギャップインプット
- Authors: Denys Godwin, Hanxi Li, Michael Cecil, Hamed Alemohammad,
- Abstract要約: マルチスペクトル衛星画像の時系列において,視覚変換器(ViT)モデルと基本条件生成逆数ネットワーク(CGAN)モデルを比較した。
現実のクラウドマスクを用いて衛星画像の時系列をランダムにマスキングし、各モデルをトレーニングし、欠落したピクセルを再構築する。
- 参考スコア(独自算出の注目度): 1.2374541748245838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Filling cloudy pixels in multispectral satellite imagery is essential for accurate data analysis and downstream applications, especially for tasks which require time series data. To address this issue, we compare the performance of a foundational Vision Transformer (ViT) model with a baseline Conditional Generative Adversarial Network (CGAN) model for missing value imputation in time series of multispectral satellite imagery. We randomly mask time series of satellite images using real-world cloud masks and train each model to reconstruct the missing pixels. The ViT model is fine-tuned from a pretrained model, while the CGAN is trained from scratch. Using quantitative evaluation metrics such as structural similarity index and mean absolute error as well as qualitative visual analysis, we assess imputation accuracy and contextual preservation.
- Abstract(参考訳): マルチスペクトル衛星画像における曇り画素の充填は、正確なデータ解析と下流アプリケーション、特に時系列データを必要とするタスクに不可欠である。
この問題に対処するために,基礎的な視覚変換器(ViT)モデルと基本条件生成適応ネットワーク(CGAN)モデルを比較した。
現実のクラウドマスクを用いて衛星画像の時系列をランダムにマスキングし、各モデルをトレーニングし、欠落したピクセルを再構築する。
ViTモデルは事前訓練されたモデルから微調整され、CGANはゼロから訓練される。
構造的類似度指数や平均絶対誤差などの定量的評価指標と質的視覚分析を用いて,計算精度と文脈保存性を評価する。
関連論文リスト
- SatVision-TOA: A Geospatial Foundation Model for Coarse-Resolution All-Sky Remote Sensing Imagery [8.096413986108601]
本稿では,14バンドMODIS L1B Top-Of-Atmosphere (TOA) を用いた新しい基礎モデルであるSatVision-TOAを紹介する。
SatVision-TOA モデルは Masked-Image-Modeling (MIM) フレームワークと SwinV2 アーキテクチャを使って事前訓練されている。
その結果、SatVision-TOAは、下流タスクのベースラインメソッドよりも優れたパフォーマンスを実現することがわかった。
論文 参考訳(メタデータ) (2024-11-26T00:08:00Z) - Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - ImageNet-D: Benchmarking Neural Network Robustness on Diffusion Synthetic Object [78.58860252442045]
我々は、深層モデルの堅牢性をベンチマークするハードイメージのためのデータソースとして、生成モデルを紹介した。
このベンチマークを ImageNet-D と呼ぶ以前の作業よりも、背景、テクスチャ、材料が多様化したイメージを生成することができます。
我々の研究は、拡散モデルが視覚モデルをテストするのに効果的な情報源となることを示唆している。
論文 参考訳(メタデータ) (2024-03-27T17:23:39Z) - DiffusionSat: A Generative Foundation Model for Satellite Imagery [63.2807119794691]
現在、DiffusionSatは、現在利用可能な大規模な高解像度リモートセンシングデータセットのコレクションに基づいてトレーニングされている、最大の生成基盤モデルである。
提案手法は, リアルタイムなサンプルを作成し, 時間生成, マルチスペクトル入力の超解像, インペイントなどの複数の生成課題を解くのに利用できる。
論文 参考訳(メタデータ) (2023-12-06T16:53:17Z) - CLiSA: A Hierarchical Hybrid Transformer Model using Orthogonal Cross
Attention for Satellite Image Cloud Segmentation [5.178465447325005]
ディープラーニングアルゴリズムは画像セグメンテーション問題を解決するための有望なアプローチとして登場してきた。
本稿では,Lipschitz Stable Attention NetworkによるCLiSA - Cloudセグメンテーションという,効果的なクラウドマスク生成のためのディープラーニングモデルを提案する。
Landsat-8, Sentinel-2, Cartosat-2sを含む複数の衛星画像データセットの質的および定量的な結果を示す。
論文 参考訳(メタデータ) (2023-11-29T09:31:31Z) - U-TILISE: A Sequence-to-sequence Model for Cloud Removal in Optical
Satellite Time Series [22.39321609253005]
我々は,クラウドにマッピングされた入力シーケンスを,クラウドのない出力シーケンスにマッピングできるニューラルモデルを開発した。
本研究では,欧州全域で取得した衛星センチネル2時系列のデータセットを用いて,提案モデルの有効性を実験的に評価した。
標準ベースラインと比較して、PSNRは以前見られた場所で1.8dB、見えない場所では1.3dB増加する。
論文 参考訳(メタデータ) (2023-05-22T17:37:10Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Efficient data-driven gap filling of satellite image time series using
deep neural networks with partial convolutions [0.0]
本稿では,3次元部分畳み込みをニューラルネットワークの層として用いることで,衛星画像時系列のギャップを埋める方法について述べる。
このアプローチを評価するために、センチネル-5P衛星からの準球状一酸化炭素観測の不完全時系列にU-Netライクなモデルを適用する。
論文 参考訳(メタデータ) (2022-08-18T11:32:04Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Transferring and Regularizing Prediction for Semantic Segmentation [115.88957139226966]
本稿では,セマンティックセグメンテーションの本質的特性を利用して,モデル伝達におけるそのような問題を緩和する。
本稿では,モデル転送を教師なし方式で正規化するための制約として固有特性を課す予測伝達の正規化器(RPT)を提案する。
GTA5とSynTHIA(synthetic data)で訓練されたモデルの都市景観データセット(アーバンストリートシーン)への転送に関するRTPの提案を検証するため、大規模な実験を行った。
論文 参考訳(メタデータ) (2020-06-11T16:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。