論文の概要: Generalizable Disaster Damage Assessment via Change Detection with Vision Foundation Model
- arxiv url: http://arxiv.org/abs/2406.08020v1
- Date: Wed, 12 Jun 2024 09:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 17:45:58.570967
- Title: Generalizable Disaster Damage Assessment via Change Detection with Vision Foundation Model
- Title(参考訳): ビジョンファウンデーションモデルによる変更検出による総合的防災評価
- Authors: Kyeongjin Ahn, Sungwon Han, Sungwon Park, Jihee Kim, Sangyoon Park, Meeyoung Cha,
- Abstract要約: 本稿では, DAVI(Disaster Assessment with VIsion foundation model)を提案する。
DAVIは、ソース領域でトレーニングされたモデルからイメージセグメンテーション基礎モデルにタスク固有の知識を統合し、ターゲット領域の損傷の可能性を示す擬似ラベルを生成する。
次に、ピクセルと全体像の両方をターゲットとした2段階の精細化プロセスを使用して、災害現場におけるより正確に変化を特定します。
- 参考スコア(独自算出の注目度): 17.016411785224317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing frequency and intensity of natural disasters demand more sophisticated approaches for rapid and precise damage assessment. To tackle this issue, researchers have developed various methods on disaster benchmark datasets from satellite imagery to aid in detecting disaster damage. However, the diverse nature of geographical landscapes and disasters makes it challenging to apply existing methods to regions unseen during training. We present DAVI (Disaster Assessment with VIsion foundation model), which overcomes domain disparities and detects structural damage (e.g., building) without requiring ground-truth labels of the target region. DAVI integrates task-specific knowledge from a model trained on source regions with an image segmentation foundation model to generate pseudo labels of possible damage in the target region. It then employs a two-stage refinement process, targeting both the pixel and overall image, to more accurately pinpoint changes in disaster-struck areas based on before-and-after images. Comprehensive evaluations demonstrate that DAVI achieves exceptional performance across diverse terrains (e.g., USA and Mexico) and disaster types (e.g., wildfires, hurricanes, and earthquakes). This confirms its robustness in assessing disaster impact without dependence on ground-truth labels.
- Abstract(参考訳): 自然災害の頻度と強度の増大は、迅速かつ正確な被害評価のためのより洗練されたアプローチを要求する。
この問題に対処するため、衛星画像からの災害評価データセットの様々な手法を開発し、災害被害の検知に役立てている。
しかし、地理的景観や災害の多様さは、訓練中に見えない地域に既存の手法を適用することを困難にしている。
本稿では, DAVI(Disaster Assessment with VIsion foundation model)を提案する。
DAVIは、ソース領域でトレーニングされたモデルからイメージセグメンテーション基礎モデルにタスク固有の知識を統合し、ターゲット領域の損傷の可能性を示す擬似ラベルを生成する。
次に、ピクセルと全体像の両方をターゲットとした2段階の精錬プロセスを使用して、前と後の画像に基づいて災害現場の変化をより正確に特定する。
総合的な評価は、DAVIが様々な地形(米国、メキシコなど)と災害種(例、山火事、ハリケーン、地震)で例外的な性能を発揮することを示している。
このことは、地道ラベルに依存しない災害影響の評価において、その堅牢性を確認している。
関連論文リスト
- Robust Disaster Assessment from Aerial Imagery Using Text-to-Image Synthetic Data [66.49494950674402]
航空画像からの損傷評価のタスクのための大規模合成監視を作成する際に,新たなテキスト・画像生成モデルを活用する。
低リソース領域から何千ものポストディスアスター画像を生成するために、効率的でスケーラブルなパイプラインを構築しています。
我々は,xBDおよびSKAI画像のクロスジオグラフィー領域転送設定におけるフレームワークの強度を,単一ソースとマルチソースの両方で検証する。
論文 参考訳(メタデータ) (2024-05-22T16:07:05Z) - AB2CD: AI for Building Climate Damage Classification and Detection [0.0]
本研究では, 自然災害の文脈において, 建物の損傷評価を正確に行うための深層学習手法の実装について検討する。
我々は,低品質・騒音ラベルの影響を考慮しつつ,新たな災害・地域への一般化の課題に取り組む。
我々の研究結果は、気候変動によって引き起こされる極端気象事象の影響評価を強化するための高度なAIソリューションの可能性と限界を示している。
論文 参考訳(メタデータ) (2023-09-03T03:37:04Z) - Classification of structural building damage grades from multi-temporal
photogrammetric point clouds using a machine learning model trained on
virtual laser scanning data [58.720142291102135]
実世界の点雲からの多層建築物の損傷を自動的に評価する新しい手法を提案する。
我々は、仮想レーザースキャン(VLS)データに基づいて訓練された機械学習モデルを使用する。
このモデルでは、高いマルチターゲット分類精度(全精度:92.0% - 95.1%)が得られる。
論文 参考訳(メタデータ) (2023-02-24T12:04:46Z) - Transformer-based Flood Scene Segmentation for Developing Countries [1.7499351967216341]
洪水は大規模な自然災害であり、しばしば大量の死者、大規模な材料被害、経済的混乱を引き起こす。
早期警戒システム(EWS)は洪水を予測するための水位やその他の要因を常に評価し、被害を最小限に抑える。
FloodTransformerは、災害現場の空中画像から浸水した領域を検出し、セグメンテーションする最初のビジュアルトランスフォーマーベースのモデルである。
論文 参考訳(メタデータ) (2022-10-09T10:29:41Z) - Cross-Geography Generalization of Machine Learning Methods for
Classification of Flooded Regions in Aerial Images [3.9921541182631253]
本研究は,UAV空中画像中の浸水領域を特定するための2つのアプローチを提案する。
最初のアプローチは、テクスチャベースの教師なしセグメンテーションを使用して、浸水した地域を検出する。
2つ目は、テクスチャ機能に人工ニューラルネットワークを使用して、画像が浸水して浮かばないものとして分類する。
論文 参考訳(メタデータ) (2022-10-04T13:11:44Z) - Attention Based Semantic Segmentation on UAV Dataset for Natural
Disaster Damage Assessment [0.7614628596146599]
我々は,高解像度UAVデータセット上に,自己アテンションに基づくセマンティックセマンティックセマンティクスモデルを実装した。
その結果、人命を救うとともに経済損失を減らす自然災害被害評価に自己注意型スキームを使うことが示唆された。
論文 参考訳(メタデータ) (2021-05-30T13:39:03Z) - Physically-Consistent Generative Adversarial Networks for Coastal Flood
Visualization [60.690929022840685]
合成視覚衛星画像の物理的整合性を確保するための,最初のディープラーニングパイプラインを提案する。
物理ベースのフラッドマップと比較して画像を評価することにより,提案手法が物理一貫性とフォトリアリズムの両方においてベースラインモデルを上回ることを見出した。
地球観測における画像と画像の翻訳を研究するために、25k以上の画像ペアのデータセットを公開する。
論文 参考訳(メタデータ) (2021-04-10T15:00:15Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z) - Physics-informed GANs for Coastal Flood Visualization [65.54626149826066]
我々は,現在および将来の沿岸洪水の衛星画像を生成する深層学習パイプラインを構築した。
物理に基づく洪水図と比較して画像を評価することにより,提案手法は物理的一貫性とフォトリアリズムの両方において,ベースラインモデルよりも優れていることがわかった。
この研究は沿岸の洪水の可視化に焦点が当てられているが、気候変動が地球をどう形作るかのグローバルな可視化を作成することを想定している。
論文 参考訳(メタデータ) (2020-10-16T02:15:34Z) - Learning from Multimodal and Multitemporal Earth Observation Data for
Building Damage Mapping [17.324397643429638]
我々は、損傷マッピングを構築するためのグローバルなマルチセンサとマルチテンポラルデータセットを開発した。
グローバルデータセットには、高解像度の光学画像と高解像度のマルチバンドSARデータが含まれている。
我々は、深層畳み込みニューラルネットワークアルゴリズムに基づいて、損傷建物の意味的セグメンテーションのための損傷マッピングフレームワークを定義した。
論文 参考訳(メタデータ) (2020-09-14T05:04:19Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。