論文の概要: SITSMamba for Crop Classification based on Satellite Image Time Series
- arxiv url: http://arxiv.org/abs/2409.09673v2
- Date: Sun, 29 Sep 2024 06:19:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:59:30.196939
- Title: SITSMamba for Crop Classification based on Satellite Image Time Series
- Title(参考訳): 衛星画像時系列に基づく作物分類用SITSMamba
- Authors: Xiaolei Qin, Xin Su, Liangpei Zhang,
- Abstract要約: リモートセンシング時系列データに基づく作物分類のための衛星画像時系列マンバ(SITSMamba)手法を提案する。
SITSからのより豊かな時間情報を活用するために、異なるタスクに使用するデコーダの2つのブランチを設計する。
- 参考スコア(独自算出の注目度): 14.664712599230272
- License:
- Abstract: Satellite image time series (SITS) data provides continuous observations over time, allowing for the tracking of vegetation changes and growth patterns throughout the seasons and years. Numerous deep learning (DL) approaches using SITS for crop classification have emerged recently, with the latest approaches adopting Transformer for SITS classification. However, the quadratic complexity of self-attention in Transformer poses challenges for classifying long time series. While the cutting-edge Mamba architecture has demonstrated strength in various domains, including remote sensing image interpretation, its capacity to learn temporal representations in SITS data remains unexplored. Moreover, the existing SITS classification methods often depend solely on crop labels as supervision signals, which fails to fully exploit the temporal information. In this paper, we proposed a Satellite Image Time Series Mamba (SITSMamba) method for crop classification based on remote sensing time series data. The proposed SITSMamba contains a spatial encoder based on Convolutional Neural Networks (CNN) and a Mamba-based temporal encoder. To exploit richer temporal information from SITS, we design two branches of decoder used for different tasks. The first branch is a crop Classification Branch (CBranch), which includes a ConvBlock to decode the feature to a crop map. The second branch is a SITS Reconstruction Branch that uses a Linear layer to transform the encoded feature to predict the original input values. Furthermore, we design a Positional Weight (PW) applied to the RBranch to help the model learn rich latent knowledge from SITS. We also design two weighting factors to control the balance of the two branches during training. The code of SITSMamba is available at: https://github.com/XiaoleiQinn/SITSMamba.
- Abstract(参考訳): 衛星画像時系列データ(SITS)は、季節や年を通して植生の変化や成長パターンを追跡することができる。
SITSを作物分類に用いた多くのディープラーニング(DL)アプローチが最近出現し、最新のアプローチではSITS分類にTransformerを採用している。
しかし、Transformerにおける自己注意の二次的な複雑さは、時系列の分類に挑戦する。
最先端のMambaアーキテクチャは、リモートセンシング画像解釈など様々な領域で強みを示してきたが、SITSデータの時間的表現を学習する能力は未解明のままである。
さらに、既存のSITS分類法は、時間情報の完全活用に失敗する監視信号として、作物ラベルにのみ依存することが多い。
本稿では,リモートセンシング時系列データに基づく作物分類のための衛星画像時系列マンバ(SITSMamba)手法を提案する。
提案したSITSMambaは、畳み込みニューラルネットワーク(CNN)に基づく空間エンコーダと、マンバに基づく時間エンコーダを含む。
SITSからのより豊かな時間情報を活用するために、異なるタスクに使用するデコーダの2つのブランチを設計する。
最初のブランチは、作物分類ブランチ(CBranch)で、作物マップに機能をデコードするConvBlockを含んでいる。
第2のブランチはSITSレコンストラクションブランチで、線形層を使用してエンコードされた特徴を変換し、元の入力値を予測する。
さらに、RBranchに適用された位置重み(PW)を設計し、SITSからリッチ潜在知識の学習を支援する。
また、トレーニング中に2つの枝のバランスを制御するために2つの重み付け因子を設計する。
SITSMambaのコードは、https://github.com/XiaoleiQinn/SITSMambaで公開されている。
関連論文リスト
- Simba: Mamba augmented U-ShiftGCN for Skeletal Action Recognition in Videos [3.8366697175402225]
スケルトン行動認識は、骨格関節座標とその相互接続を用いた人間の行動の同定を含む。
近年、新しい選択状態空間モデルであるMambaがトランスフォーマーのアテンションメカニズムの代替として浮上している。
Mambaを組み込んだ最初のSARフレームワークを提案する。このフレームワークは3つのよく知られたベンチマークスケルトン行動認識データセットに対して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-04-11T11:07:57Z) - RS3Mamba: Visual State Space Model for Remote Sensing Images Semantic Segmentation [7.922421805234563]
本稿では,この革新的な技術をリモートセンシングタスクに組み込むために,リモートセンシング画像セマンティックセマンティックセマンティフィケーションMamba (RS3Mamba) という新しいデュアルブランチネットワークを提案する。
RS3MambaはVSSブロックを使用して補助ブランチを構築し、畳み込みベースのメインブランチに追加のグローバル情報を提供する。
ISPRS VaihingenとLoveDA Urbanという2つの広く使われているデータセットの実験結果により、提案されたRS3Mambaの有効性と可能性を実証した。
論文 参考訳(メタデータ) (2024-04-03T04:59:28Z) - Identifying Stochasticity in Time-Series with Autoencoder-Based
Content-aware 2D Representation: Application to Black Hole Data [1.52292571922932]
本稿では,自動エンコーダに基づく2次元表現を用いて時系列を非確率的に分類する。
時間領域と周波数領域の特性を同時に利用する2次元表現への1次元時系列のコンテンツ対応変換を提案する。
論文 参考訳(メタデータ) (2023-04-23T07:17:45Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - ViTs for SITS: Vision Transformers for Satellite Image Time Series [52.012084080257544]
ビジョン変換器(ViT)に基づく一般衛星画像時系列(SITS)処理のための完全アテンショナルモデルを提案する。
TSViTはSITSレコードを空間と時間で重複しないパッチに分割し、トークン化し、分解されたテンポロ空間エンコーダで処理する。
論文 参考訳(メタデータ) (2023-01-12T11:33:07Z) - SatMAE: Pre-training Transformers for Temporal and Multi-Spectral
Satellite Imagery [74.82821342249039]
Masked Autoencoder(MAE)に基づく時間・マルチスペクトル衛星画像の事前学習フレームワークであるSatMAEについて述べる。
時間的情報を活用するために、時間にわたって画像パッチを個別にマスキングする時間的埋め込みを含む。
論文 参考訳(メタデータ) (2022-07-17T01:35:29Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z) - BiCnet-TKS: Learning Efficient Spatial-Temporal Representation for Video
Person Re-Identification [86.73532136686438]
映像人物再識別(reID)のための効率的な時空間表現法を提案する。
空間相補性モデリングのための双方向相補性ネットワーク(BiCnet)を提案する。
BiCnet-TKSは、約50%の計算量で最先端の性能を発揮する。
論文 参考訳(メタデータ) (2021-04-30T06:44:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。