論文の概要: GeoWATCH for Detecting Heavy Construction in Heterogeneous Time Series of Satellite Images
- arxiv url: http://arxiv.org/abs/2407.06337v1
- Date: Mon, 8 Jul 2024 19:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 22:03:20.909104
- Title: GeoWATCH for Detecting Heavy Construction in Heterogeneous Time Series of Satellite Images
- Title(参考訳): 衛星画像の不均一時系列における重構造検出のためのGeoWATCH
- Authors: Jon Crall, Connor Greenwell, David Joy, Matthew Leotta, Aashish Chaudhary, Anthony Hoogs,
- Abstract要約: GeoWATCHは、複数のセンサプラットフォームからの長い衛星画像のモデルをトレーニングするためのフレキシブルなフレームワークである。
本システムにはサブグラフアイソモーフィズムに基づく新しい部分重み付け機構が組み込まれており,多くのトレーニングサイクルを通じてネットワークを継続的にトレーニングし,修正することができる。
これにより、長期にわたってモデルの行をトレーニングすることが可能となり、コアのバックボーンを維持しながら構成を調整することで、パフォーマンスが向上しました。
- 参考スコア(独自算出の注目度): 5.668876173296078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from multiple sensors is challenging due to spatio-temporal misalignment and differences in resolution and captured spectra. To that end, we introduce GeoWATCH, a flexible framework for training models on long sequences of satellite images sourced from multiple sensor platforms, which is designed to handle image classification, activity recognition, object detection, or object tracking tasks. Our system includes a novel partial weight loading mechanism based on sub-graph isomorphism which allows for continually training and modifying a network over many training cycles. This has allowed us to train a lineage of models over a long period of time, which we have observed has improved performance as we adjust configurations while maintaining a core backbone.
- Abstract(参考訳): 複数のセンサからの学習は、時空間のずれと解像度の差とキャプチャされたスペクトルのために困難である。
そのために、複数のセンサプラットフォームから得られた衛星画像の長いシーケンスのモデルをトレーニングするための柔軟なフレームワークGeoWATCHを紹介し、画像分類、アクティビティ認識、オブジェクト検出、オブジェクト追跡タスクを処理するように設計されている。
本システムにはサブグラフアイソモーフィズムに基づく新しい部分重み付け機構が組み込まれており,多くのトレーニングサイクルを通じてネットワークを継続的にトレーニングし,修正することができる。
これにより、長期にわたってモデルの行をトレーニングすることが可能となり、コアのバックボーンを維持しながら構成を調整することで、パフォーマンスが向上しました。
関連論文リスト
- Deep Multimodal Fusion for Semantic Segmentation of Remote Sensing Earth Observation Data [0.08192907805418582]
本稿では,セマンティックセグメンテーションのための後期融合深層学習モデル(LF-DLM)を提案する。
1つのブランチは、UNetFormerがキャプチャした空中画像の詳細なテクスチャと、ViT(Multi-Axis Vision Transformer)バックボーンを統合する。
もう一方のブランチは、U-ViNet(U-TAE)を用いてSentinel-2衛星画像Max時系列から複雑な時間ダイナミクスをキャプチャする。
論文 参考訳(メタデータ) (2024-10-01T07:50:37Z) - Towards a Knowledge guided Multimodal Foundation Model for Spatio-Temporal Remote Sensing Applications [16.824262496666893]
本稿では,事前学習タスクが複数のモーダル間の因果関係をキャプチャする基礎モデルフレームワークを提案する。
本手法は,MultiModal Variable Step Forecasting (MM-VSF) と呼ばれ,衛星画像の予測を事前訓練作業として利用する。
論文 参考訳(メタデータ) (2024-07-29T02:49:55Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Temporal Embeddings: Scalable Self-Supervised Temporal Representation
Learning from Spatiotemporal Data for Multimodal Computer Vision [1.4127889233510498]
移動活動時系列に基づいて景観を階層化する新しい手法を提案する。
ピクセルワイズ埋め込みは、タスクベースのマルチモーダルモデリングに使用できるイメージライクなチャネルに変換される。
論文 参考訳(メタデータ) (2023-10-16T02:53:29Z) - Unsupervised CD in satellite image time series by contrastive learning
and feature tracking [15.148034487267635]
特徴追跡を用いたコントラスト学習を用いた衛星画像時系列における教師なし変化検出のための2段階のアプローチを提案する。
事前学習したモデルから擬似ラベルを抽出し,特徴追跡を用いて画像時系列間で伝達することにより,擬似ラベルの一貫性を改善し,長期リモートセンシング画像時系列における季節変化の課題に対処する。
論文 参考訳(メタデータ) (2023-04-22T11:19:19Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - SatMAE: Pre-training Transformers for Temporal and Multi-Spectral
Satellite Imagery [74.82821342249039]
Masked Autoencoder(MAE)に基づく時間・マルチスペクトル衛星画像の事前学習フレームワークであるSatMAEについて述べる。
時間的情報を活用するために、時間にわたって画像パッチを個別にマスキングする時間的埋め込みを含む。
論文 参考訳(メタデータ) (2022-07-17T01:35:29Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z) - Learning Monocular Visual Odometry via Self-Supervised Long-Term
Modeling [106.15327903038705]
単眼視覚計測(VO)はフレーム・ツー・フレームのポーズ推定時にエラーの蓄積に苦しむ。
本稿では,より長いシーケンスの一貫性を考慮したVOの自己教師付き学習手法を提案する。
我々は、幾何VOのループ閉鎖モジュールを模倣したサイクル整合損失を含む、純粋に自己監督的な損失でネットワークを訓練する。
論文 参考訳(メタデータ) (2020-07-21T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。