論文の概要: BRIGHT: A globally distributed multimodal building damage assessment dataset with very-high-resolution for all-weather disaster response
- arxiv url: http://arxiv.org/abs/2501.06019v1
- Date: Fri, 10 Jan 2025 14:57:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:28:00.911536
- Title: BRIGHT: A globally distributed multimodal building damage assessment dataset with very-high-resolution for all-weather disaster response
- Title(参考訳): BRIGHT:全天候災害対応のための超高解像度多層建築物被害評価データセット
- Authors: Hongruixuan Chen, Jian Song, Olivier Dietrich, Clifford Broni-Bediako, Weihao Xuan, Junjue Wang, Xinlei Shao, Yimin Wei, Junshi Xia, Cuiling Lan, Konrad Schindler, Naoto Yokoya,
- Abstract要約: ビル被害評価(BDA)は、人的被害を減らすために災害後の重要な能力である。
近年の研究では、目に見えない災害事象の正確なマッピングを実現するためのAIモデルの開発に焦点が当てられている。
本稿では, veRy-hIGH-resoluTion Optical and SAR image (BRIGHT) を用いたBDAデータセットを提案する。
- 参考スコア(独自算出の注目度): 37.37991234180912
- License:
- Abstract: Disaster events occur around the world and cause significant damage to human life and property. Earth observation (EO) data enables rapid and comprehensive building damage assessment (BDA), an essential capability in the aftermath of a disaster to reduce human casualties and to inform disaster relief efforts. Recent research focuses on the development of AI models to achieve accurate mapping of unseen disaster events, mostly using optical EO data. However, solutions based on optical data are limited to clear skies and daylight hours, preventing a prompt response to disasters. Integrating multimodal (MM) EO data, particularly the combination of optical and SAR imagery, makes it possible to provide all-weather, day-and-night disaster responses. Despite this potential, the development of robust multimodal AI models has been constrained by the lack of suitable benchmark datasets. In this paper, we present a BDA dataset using veRy-hIGH-resoluTion optical and SAR imagery (BRIGHT) to support AI-based all-weather disaster response. To the best of our knowledge, BRIGHT is the first open-access, globally distributed, event-diverse MM dataset specifically curated to support AI-based disaster response. It covers five types of natural disasters and two types of man-made disasters across 12 regions worldwide, with a particular focus on developing countries where external assistance is most needed. The optical and SAR imagery in BRIGHT, with a spatial resolution between 0.3-1 meters, provides detailed representations of individual buildings, making it ideal for precise BDA. In our experiments, we have tested seven advanced AI models trained with our BRIGHT to validate the transferability and robustness. The dataset and code are available at https://github.com/ChenHongruixuan/BRIGHT. BRIGHT also serves as the official dataset for the 2025 IEEE GRSS Data Fusion Contest.
- Abstract(参考訳): 災害は世界中で発生し、人命と財産に大きな被害を与える。
地球観測データ(EO)は、人的被害を減らし、災害救助活動を伝えるために災害後の重要な機能である、迅速かつ包括的な建物被害評価(BDA)を可能にする。
最近の研究は、主に光学的EOデータを用いて、目に見えない災害事象の正確なマッピングを実現するためのAIモデルの開発に焦点を当てている。
しかし、光学データに基づく解は空の晴れや昼間の時間に限られており、災害に対する迅速な対応を妨げている。
マルチモーダル(MM)EOデータの統合、特に光学画像とSAR画像の組み合わせにより、全天候・昼夜災害応答を提供できる。
このような可能性にもかかわらず、堅牢なマルチモーダルAIモデルの開発は、適切なベンチマークデータセットの欠如によって制約されている。
本稿では, veRy-hIGH-resoluTion Optical and SAR image (BRIGHT) を用いたBDAデータセットを提案する。
BRIGHTは、私たちの知る限り、AIベースの災害対応をサポートするために特別にキュレートされた、オープンアクセスでグローバルに分散された、イベント分散MMデータセットである。
世界の12地域にわたる5種類の自然災害と2種類の人為的災害をカバーし、特に外的援助が最必要となる発展途上国に焦点を当てている。
BRIGHTの光学的およびSAR画像は、0.3-1mの空間分解能を持ち、個々の建物の詳細な表現を提供し、正確なBDAに最適である。
実験では、BRIGHTでトレーニングされた7つの高度なAIモデルを用いて、転送可能性とロバスト性を検証した。
データセットとコードはhttps://github.com/ChenHongruixuan/BRIGHTで公開されている。
BRIGHTはまた、2025年のIEEE GRSS Data Fusion Contestの公式データセットとしても機能している。
関連論文リスト
- BlessemFlood21: Advancing Flood Analysis with a High-Resolution Georeferenced Dataset for Humanitarian Aid Support [34.91321323785173]
我々はBlessemFlood21データセットを導入し、効率的な洪水検知ツールの研究を刺激する。
この画像は、2021年のエルフトシュタット=ブレセム洪水で取得され、高解像度でジオレファレンスなRGB-NIR画像で構成された。
得られたRGBデータセットでは、画像に詳細な水面を補足し、半教師付きヒト・イン・ザ・ループ技術を用いて取得する。
論文 参考訳(メタデータ) (2024-07-06T08:58:43Z) - Generalizable Disaster Damage Assessment via Change Detection with Vision Foundation Model [17.016411785224317]
本稿では, DAVI(Disaster Assessment with VIsion foundation model)を提案する。
DAVIは、ソース領域でトレーニングされたモデルからイメージセグメンテーション基礎モデルにタスク固有の知識を統合し、ターゲット領域の損傷の可能性を示す擬似ラベルを生成する。
次に、ピクセルと全体像の両方をターゲットとした2段階の精細化プロセスを使用して、災害現場におけるより正確に変化を特定します。
論文 参考訳(メタデータ) (2024-06-12T09:21:28Z) - Robust Disaster Assessment from Aerial Imagery Using Text-to-Image Synthetic Data [66.49494950674402]
航空画像からの損傷評価のタスクのための大規模合成監視を作成する際に,新たなテキスト・画像生成モデルを活用する。
低リソース領域から何千ものポストディスアスター画像を生成するために、効率的でスケーラブルなパイプラインを構築しています。
我々は,xBDおよびSKAI画像のクロスジオグラフィー領域転送設定におけるフレームワークの強度を,単一ソースとマルチソースの両方で検証する。
論文 参考訳(メタデータ) (2024-05-22T16:07:05Z) - CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - AB2CD: AI for Building Climate Damage Classification and Detection [0.0]
本研究では, 自然災害の文脈において, 建物の損傷評価を正確に行うための深層学習手法の実装について検討する。
我々は,低品質・騒音ラベルの影響を考慮しつつ,新たな災害・地域への一般化の課題に取り組む。
我々の研究結果は、気候変動によって引き起こされる極端気象事象の影響評価を強化するための高度なAIソリューションの可能性と限界を示している。
論文 参考訳(メタデータ) (2023-09-03T03:37:04Z) - Building Coverage Estimation with Low-resolution Remote Sensing Imagery [65.95520230761544]
本稿では,低解像度衛星画像のみを用いた建物被覆量の推定手法を提案する。
本モデルでは, 世界中の開発レベルの異なる地域において, 建築範囲の予測において最大0.968の判定係数を達成している。
論文 参考訳(メタデータ) (2023-01-04T05:19:33Z) - A Machine learning approach for rapid disaster response based on
multi-modal data. The case of housing & shelter needs [0.0]
災害に遭った人々の最も直接的なニーズの1つは避難所を見つけることである。
本稿では,マルチモーダルデータの融合と解析を目的とした機械学習ワークフローを提案する。
世界中の200以上の災害に対する19の特徴のデータベースに基づいて、意思決定レベルでの融合アプローチが用いられた。
論文 参考訳(メタデータ) (2021-07-29T18:22:34Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z) - Learning from Multimodal and Multitemporal Earth Observation Data for
Building Damage Mapping [17.324397643429638]
我々は、損傷マッピングを構築するためのグローバルなマルチセンサとマルチテンポラルデータセットを開発した。
グローバルデータセットには、高解像度の光学画像と高解像度のマルチバンドSARデータが含まれている。
我々は、深層畳み込みニューラルネットワークアルゴリズムに基づいて、損傷建物の意味的セグメンテーションのための損傷マッピングフレームワークを定義した。
論文 参考訳(メタデータ) (2020-09-14T05:04:19Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。