論文の概要: Tackling fluffy clouds: field boundaries detection using time series of S2 and/or S1 imagery
- arxiv url: http://arxiv.org/abs/2409.13568v1
- Date: Fri, 20 Sep 2024 15:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 06:30:58.061171
- Title: Tackling fluffy clouds: field boundaries detection using time series of S2 and/or S1 imagery
- Title(参考訳): ふわふわ雲に対処する:S2および/またはS1画像の時系列を用いたフィールド境界検出
- Authors: Foivos I. Diakogiannis, Zheng-Shu Zhou, Jeff Wang, Gonzalo Mata, Dave Henry, Roger Lawes, Amy Parker, Peter Caccetta, Rodrigo Ibata, Ondrej Hlinka, Jonathan Richetti, Kathryn Batchelor, Chris Herrmann, Andrew Toovey, John Taylor,
- Abstract要約: 本研究では,Sentinel-2 (S2) とSentinel-1 (S1) 画像からの時系列データを利用して,多様な雲条件下での性能向上を行う手法を提案する。
2つのモデルが提案されている: PTAViT3DはS2またはS1データを独立に処理し、PTAViT3D-CAは両方のデータセットを融合して精度を高める。
以上の結果から,S1モデルでは,部分的(S2やS2,S1データ融合)や密集クラウドカバー(S1)においても,S2画像に匹敵する性能を提供する。
- 参考スコア(独自算出の注目度): 1.0251998687197121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate field boundary delineation is a critical challenge in digital agriculture, impacting everything from crop monitoring to resource management. Existing methods often struggle with noise and fail to generalize across varied landscapes, particularly when dealing with cloud cover in optical remote sensing. In response, this study presents a new approach that leverages time series data from Sentinel-2 (S2) and Sentinel-1 (S1) imagery to improve performance under diverse cloud conditions, without the need for manual cloud filtering. We introduce a 3D Vision Transformer architecture specifically designed for satellite image time series, incorporating a memory-efficient attention mechanism. Two models are proposed: PTAViT3D, which handles either S2 or S1 data independently, and PTAViT3D-CA, which fuses both datasets to enhance accuracy. Both models are evaluated under sparse and dense cloud coverage by exploiting spatio-temporal correlations. Our results demonstrate that the models can effectively delineate field boundaries, even with partial (S2 or S2 and S1 data fusion) or dense cloud cover (S1), with the S1-based model providing performance comparable to S2 imagery in terms of spatial resolution. A key strength of this approach lies in its capacity to directly process cloud-contaminated imagery by leveraging spatio-temporal correlations in a memory-efficient manner. This methodology, used in the ePaddocks product to map Australia's national field boundaries, offers a robust, scalable solution adaptable to varying agricultural environments, delivering precision and reliability where existing methods falter. Our code is available at https://github.com/feevos/tfcl.
- Abstract(参考訳): 正確なフィールド境界線作成は、デジタル農業において重要な課題であり、作物のモニタリングから資源管理まで、あらゆることに影響を及ぼす。
既存の手法はしばしばノイズに悩まされ、特に光リモートセンシングにおいて雲のカバーを扱う場合、様々な風景を一般化することができない。
そこで本研究では,Sentinel-2 (S2) およびSentinel-1 (S1) 画像からの時系列データを活用する手法を提案する。
本稿では,衛星画像時系列に特化して設計された3次元ビジョントランスフォーマーアーキテクチャについて紹介する。
2つのモデルが提案されている: PTAViT3DはS2またはS1データを独立に処理し、PTAViT3D-CAは両方のデータセットを融合して精度を高める。
両モデルとも、時空間相関を利用して、疎密で密集した雲の範囲で評価される。
その結果,S1モデルでは空間分解能の点でS2画像に匹敵する性能を提供するため,部分的(S2,S2,S1データ融合)や密集雲被覆(S1)であっても,領域境界を効果的に導出できることが示唆された。
このアプローチの重要な強みは、時空間相関をメモリ効率のよい方法で活用することで、クラウドに汚染された画像を直接処理できる能力にある。
この手法は、オーストラリアのフィールド境界をマッピングするためにePaddocks製品で使用され、様々な農業環境に適応可能な堅牢でスケーラブルなソリューションを提供する。
私たちのコードはhttps://github.com/feevos/tfcl.comで公開されています。
関連論文リスト
- PGCS: Physical Law embedded Generative Cloud Synthesis in Remote Sensing Images [9.655563155560658]
物理法則組み込みクラウド合成法 (PGCS) は, 実データを改善するために, 多様な現実的なクラウド画像を生成するために提案されている。
2つの雲補正法がPGCSから開発され、雲補正作業における最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-22T12:36:03Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - CLiSA: A Hierarchical Hybrid Transformer Model using Orthogonal Cross
Attention for Satellite Image Cloud Segmentation [5.178465447325005]
ディープラーニングアルゴリズムは画像セグメンテーション問題を解決するための有望なアプローチとして登場してきた。
本稿では,Lipschitz Stable Attention NetworkによるCLiSA - Cloudセグメンテーションという,効果的なクラウドマスク生成のためのディープラーニングモデルを提案する。
Landsat-8, Sentinel-2, Cartosat-2sを含む複数の衛星画像データセットの質的および定量的な結果を示す。
論文 参考訳(メタデータ) (2023-11-29T09:31:31Z) - Creating and Leveraging a Synthetic Dataset of Cloud Optical Thickness Measures for Cloud Detection in MSI [3.4764766275808583]
雲の形成は、しばしば地球の地表を観測する光学衛星による不明瞭な観測である。
雲の光学的厚さ推定のための新しい合成データセットを提案する。
信頼性と汎用性を備えたクラウドマスクを実データで取得するために活用する。
論文 参考訳(メタデータ) (2023-11-23T14:28:28Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds [100.03877236181546]
PolarMixは、シンプルで汎用的なポイントクラウド拡張技術である。
様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしのドメイン適応にも適しています。
論文 参考訳(メタデータ) (2022-07-30T13:52:19Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z) - Data-driven Cloud Clustering via a Rotationally Invariant Autoencoder [10.660968055962325]
自動回転不変クラウドクラスタリング(RICC)法について述べる。
大規模なデータセット内のクラウドイメージを教師なしの方法で整理する。
その結果、クラウドクラスタはクラウド物理の有意義な側面を捉えていることが示唆された。
論文 参考訳(メタデータ) (2021-03-08T16:45:14Z) - Multi-scale Cloud Detection in Remote Sensing Images using a Dual
Convolutional Neural Network [4.812718493682455]
CNNは、リモートセンシング画像のピクセルレベルの分類において、最先端の技術を進歩させた。
アンサンプとフル解像度の画像を逐次処理する2つのCNNモデルコンポーネントのアーキテクチャを提案する。
パッチによるCNNベースラインの画素精度は16%向上した。
論文 参考訳(メタデータ) (2020-06-01T10:27:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。