論文の概要: AquaCluster: Using Satellite Images And Self-supervised Machine Learning Networks To Detect Water Hidden Under Vegetation
- arxiv url: http://arxiv.org/abs/2506.08214v3
- Date: Wed, 15 Oct 2025 06:26:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.266576
- Title: AquaCluster: Using Satellite Images And Self-supervised Machine Learning Networks To Detect Water Hidden Under Vegetation
- Title(参考訳): AquaCluster: 衛星画像と自己教師型機械学習ネットワークを使って植生に隠れた水を検出する
- Authors: Ioannis Iakovidis, Zahra Kalantari, Amir Hossein Payberah, Fernando Jaramillo, Francisco Pena Escobar,
- Abstract要約: 我々は,レーダー衛星画像を手動の注釈なしで水陸域に分割するモデルを開発した。
この結果から,アノテートデータを用いることなく,レーダ画像から植生水を検出する機械学習モデルを訓練することが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 37.73244192425515
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, the wide availability of high-resolution radar satellite images has enabled the remote monitoring of wetland surface areas. Machine learning models have achieved state-of-the-art results in segmenting wetlands from satellite images. However, these models require large amounts of manually annotated satellite images, which are slow and expensive to produce. The need for annotated training data makes it difficult to adapt these models to changes such as different climates or sensors. To address this issue, we employed self-supervised training methods to develop a model, AquaCluster, which segments radar satellite images into water and land areas without manual annotations. Our final model outperformed other radar-based water detection techniques that do not require annotated data in our test dataset, having achieved a 0.08 improvement in the Intersection over Union metric. Our results demonstrate that it is possible to train machine learning models to detect vegetated water from radar images without the use of annotated data, which can make the retraining of these models to account for changes much easier.
- Abstract(参考訳): 近年、高解像度のレーダー衛星画像が広く利用できるようになったことで、湿地表面のリモート監視が可能になった。
機械学習モデルは、衛星画像から湿地を分割することで最先端の結果を得た。
しかし、これらのモデルには大量の手動のアノテート衛星画像が必要である。
注釈付きトレーニングデータの必要性は、これらのモデルを異なる気候やセンサーのような変化に適応させることを困難にしている。
この問題に対処するために,我々は,レーダー衛星画像を手動の注釈なしで水陸域に分割するモデルAquaClusterを開発するために,自己指導型トレーニング手法を採用した。
我々の最終モデルは、我々のテストデータセットに注釈付きデータを必要としない他のレーダーによる水検知技術よりも優れており、ユニオン計量のインターセクションでは0.08の改善が達成されている。
以上の結果から,アノテートデータを用いることなく,レーダ画像から植生水を検出する機械学習モデルを訓練することが可能であることが示唆された。
関連論文リスト
- SatMamba: Development of Foundation Models for Remote Sensing Imagery Using State Space Models [0.0]
ファンデーションモデルは、自己教師付きアルゴリズムを通じて、大規模なラベル付けされていないデータセットで事前訓練されたディープラーニングモデルを指す。
リモートセンシングのための様々な基礎モデルが開発されている。
本研究では、マスク付きオートエンコーダとステートスペースモデルを組み合わせた新しい事前トレーニングフレームワークであるSatMambaを提案する。
論文 参考訳(メタデータ) (2025-02-01T14:07:21Z) - SatVision-TOA: A Geospatial Foundation Model for Coarse-Resolution All-Sky Remote Sensing Imagery [8.096413986108601]
本稿では,14バンドMODIS L1B Top-Of-Atmosphere (TOA) を用いた新しい基礎モデルであるSatVision-TOAを紹介する。
SatVision-TOA モデルは Masked-Image-Modeling (MIM) フレームワークと SwinV2 アーキテクチャを使って事前訓練されている。
その結果、SatVision-TOAは、下流タスクのベースラインメソッドよりも優れたパフォーマンスを実現することがわかった。
論文 参考訳(メタデータ) (2024-11-26T00:08:00Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - DiffusionSat: A Generative Foundation Model for Satellite Imagery [63.2807119794691]
現在、DiffusionSatは、現在利用可能な大規模な高解像度リモートセンシングデータセットのコレクションに基づいてトレーニングされている、最大の生成基盤モデルである。
提案手法は, リアルタイムなサンプルを作成し, 時間生成, マルチスペクトル入力の超解像, インペイントなどの複数の生成課題を解くのに利用できる。
論文 参考訳(メタデータ) (2023-12-06T16:53:17Z) - Exploring DINO: Emergent Properties and Limitations for Synthetic
Aperture Radar Imagery [5.057850174013128]
本研究では,No Labels(DINO)アルゴリズムによる自己蒸留の創発的特性と合成開口レーダ(SAR)画像への応用について検討する。
我々は、ラベルのないSARデータを用いて視覚変換器(ViT)ベースのDINOモデルを事前訓練し、その後、高解像度のランドカバーマップを予測するためにモデルを微調整する。
本稿では,VTアテンションマップがリモートセンシングの本質的な価値を保ち,他のアルゴリズムに有用なインプットを提供することを示す。
論文 参考訳(メタデータ) (2023-10-05T12:48:12Z) - Diffusion Models for Interferometric Satellite Aperture Radar [73.01013149014865]
確率拡散モデル (Probabilistic Diffusion Models, PDMs) は、最近、非常に有望な生成モデルのクラスとして登場した。
ここでは、PDMを活用して、レーダーベースの衛星画像データセットを複数生成する。
PDMは複雑で現実的な構造を持つ画像を生成することに成功したが、サンプリング時間は依然として問題である。
論文 参考訳(メタデータ) (2023-08-31T16:26:17Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - SatMAE: Pre-training Transformers for Temporal and Multi-Spectral
Satellite Imagery [74.82821342249039]
Masked Autoencoder(MAE)に基づく時間・マルチスペクトル衛星画像の事前学習フレームワークであるSatMAEについて述べる。
時間的情報を活用するために、時間にわたって画像パッチを個別にマスキングする時間的埋め込みを含む。
論文 参考訳(メタデータ) (2022-07-17T01:35:29Z) - Embedding Earth: Self-supervised contrastive pre-training for dense land
cover classification [61.44538721707377]
本研究では,衛星画像の高可用性を活用するための自己監督型コントラスト事前学習法として,エンベディングアースを提案する。
提案手法による事前学習では, 25%の絶対mIoUが得られた。
学習した特徴は、異なる領域間で一般化され、提案した事前学習スキームの可能性を開放する。
論文 参考訳(メタデータ) (2022-03-11T16:14:14Z) - There and Back Again: Learning to Simulate Radar Data for Real-World
Applications [21.995474023869388]
我々は、シミュレーションされた標高マップに基づいて忠実なレーダー観測を合成できるレーダセンサモデルを学ぶ。
我々は、不整合レーダの例から前方センサーモデルを学ぶための敵対的アプローチを採用する。
実環境におけるシミュレーションデータに基づいて純粋に訓練された下流セグメンテーションモデルを評価することにより,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-11-29T15:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。