論文の概要: Post-Disaster Affected Area Segmentation with a Vision Transformer (ViT)-based EVAP Model using Sentinel-2 and Formosat-5 Imagery
- arxiv url: http://arxiv.org/abs/2507.16849v1
- Date: Mon, 21 Jul 2025 07:48:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.685171
- Title: Post-Disaster Affected Area Segmentation with a Vision Transformer (ViT)-based EVAP Model using Sentinel-2 and Formosat-5 Imagery
- Title(参考訳): Sentinel-2 と Formosat-5 画像を用いた視覚変換器(ViT)を用いたEVAPモデルによる領域分割の影響
- Authors: Yi-Shan Chu, Hsuan-Cheng Wei,
- Abstract要約: リモートセンシング画像から災害影響領域のセグメンテーションを洗練するための視覚変換器(ViT)ベースのディープラーニングフレームワークを提案する。
本フレームワークはセグメント化結果のスムーズさと信頼性を向上し,正確な地下真実が得られない場合の災害対応にスケーラブルなアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a vision transformer (ViT)-based deep learning framework to refine disaster-affected area segmentation from remote sensing imagery, aiming to support and enhance the Emergent Value Added Product (EVAP) developed by the Taiwan Space Agency (TASA). The process starts with a small set of manually annotated regions. We then apply principal component analysis (PCA)-based feature space analysis and construct a confidence index (CI) to expand these labels, producing a weakly supervised training set. These expanded labels are then used to train ViT-based encoder-decoder models with multi-band inputs from Sentinel-2 and Formosat-5 imagery. Our architecture supports multiple decoder variants and multi-stage loss strategies to improve performance under limited supervision. During the evaluation, model predictions are compared with higher-resolution EVAP output to assess spatial coherence and segmentation consistency. Case studies on the 2022 Poyang Lake drought and the 2023 Rhodes wildfire demonstrate that our framework improves the smoothness and reliability of segmentation results, offering a scalable approach for disaster mapping when accurate ground truth is unavailable.
- Abstract(参考訳): 台湾宇宙機関(TASA)が開発したEVAP(Emergent Value Added Product)を支援することを目的として,遠隔センシング画像から災害影響領域のセグメンテーションを洗練するためのビジョントランスフォーマ(ViT)ベースのディープラーニングフレームワークを提案する。
プロセスは、手動で注釈付き領域の小さなセットから始まる。
次に、主成分分析(PCA)に基づく特徴空間解析を適用し、信頼度指数(CI)を構築し、これらのラベルを拡張し、弱教師付きトレーニングセットを生成する。
これらの拡張ラベルは、Sentinel-2とFormosat-5の画像からのマルチバンド入力でViTベースのエンコーダデコーダモデルをトレーニングするために使用される。
アーキテクチャは,複数のデコーダ変種とマルチステージ損失戦略をサポートし,限られた監督下での性能向上を実現している。
評価中、モデル予測を高分解能EVAP出力と比較し、空間コヒーレンスとセグメンテーションの整合性を評価する。
2022年のポヤン湖干ばつと2023年のローズ山火事の事例研究は、我々のフレームワークがセグメンテーション結果の滑らかさと信頼性を改善し、正確な地上真実が利用できない場合に、災害対応のスケーラブルなアプローチを提供することを示した。
関連論文リスト
- Pan-Arctic Permafrost Landform and Human-built Infrastructure Feature Detection with Vision Transformers and Location Embeddings [1.2895931807247418]
視覚変換器(ViT)は、注意機構を介して長距離依存関係とグローバルコンテキストをキャプチャする利点を提供する。
ViTは、自己教師付き学習による事前トレーニングをサポートし、北極の特徴検出におけるラベル付きデータの共通制限を補完する。
本研究は,(1)高分解能北極リモートセンシングタスクのための特徴抽出器としての事前学習型ViTの適合性,(2)画像と位置情報の埋め込みの利点について検討する。
論文 参考訳(メタデータ) (2025-06-03T13:34:01Z) - Joint-Optimized Unsupervised Adversarial Domain Adaptation in Remote Sensing Segmentation with Prompted Foundation Model [32.03242732902217]
本稿では、ソースドメインデータに基づいてトレーニングされたモデルをターゲットドメインサンプルに適用するという課題に対処する。
SAM(Segment Anything Model)とSAM-JOANet(SAM-JOANet)を併用した協調最適化対向ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-08T02:15:20Z) - Denoising Vision Transformers [43.03068202384091]
本稿では、DVT(Denoising Vision Transformers)と呼ばれる2段階のDenoisingアプローチを提案する。
第1段階では、画像ごとのニューラルネットワークとの横断的な特徴整合を強制することにより、位置的アーティファクトによって汚染されたものからクリーンな特徴を分離する。
第2段階では、クリーンな特徴を生のViT出力から予測するために軽量なトランスフォーマーブロックを訓練し、クリーンな特徴の導出推定を監督として活用する。
論文 参考訳(メタデータ) (2024-01-05T18:59:52Z) - Two-Stage Adaptive Network for Semi-Supervised Cross-Domain Crater Detection under Varying Scenario Distributions [17.28368878719324]
クロスクレーター検出のための2段階適応ネットワーク(TAN)を提案する。
我々のネットワークはYOLOv5検出器上に構築されており、そこではクロスドメインの一般化能力を高めるために一連の戦略が採用されている。
ベンチマークデータセットによる実験結果から,提案するネットワークは,様々なシナリオ分布下でのクレーター検出の領域適応性を向上できることが示された。
論文 参考訳(メタデータ) (2023-12-11T07:16:49Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - Exploring Consistency in Cross-Domain Transformer for Domain Adaptive
Semantic Segmentation [51.10389829070684]
ドメインギャップは、自己注意の相違を引き起こす可能性がある。
このギャップのため、変圧器は、ターゲット領域の精度を低下させる刺激領域または画素に付随する。
ドメイン横断の注意層を持つアテンションマップに適応する。
論文 参考訳(メタデータ) (2022-11-27T02:40:33Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。