論文の概要: Hyperlocal disaster damage assessment using bi-temporal street-view imagery and pre-trained vision models
- arxiv url: http://arxiv.org/abs/2504.09066v1
- Date: Sat, 12 Apr 2025 03:52:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:28.519504
- Title: Hyperlocal disaster damage assessment using bi-temporal street-view imagery and pre-trained vision models
- Title(参考訳): 双方向ストリートビュー画像と事前学習型視覚モデルを用いた局所的災害被害評価
- Authors: Yifan Yang, Lei Zou, Bing Zhou, Daoyang Li, Binbin Lin, Joynal Abedin, Mingzheng Yang,
- Abstract要約: 本研究の目的は,双方向のストリートビュー画像と高度な事前学習型視覚モデルを用いて,局地的かつ地上的な災害被害を推定することである。
Swin Transformerベースラインで66.14%の精度が、デュアルチャネルのFeature-Fusion ConvNeXtモデルで77.11%に向上した。
- 参考スコア(独自算出の注目度): 13.378498271374662
- License:
- Abstract: Street-view images offer unique advantages for disaster damage estimation as they capture impacts from a visual perspective and provide detailed, on-the-ground insights. Despite several investigations attempting to analyze street-view images for damage estimation, they mainly focus on post-disaster images. The potential of time-series street-view images remains underexplored. Pre-disaster images provide valuable benchmarks for accurate damage estimations at building and street levels. These images could aid annotators in objectively labeling post-disaster impacts, improving the reliability of labeled data sets for model training, and potentially enhancing the model performance in damage evaluation. The goal of this study is to estimate hyperlocal, on-the-ground disaster damages using bi-temporal street-view images and advanced pre-trained vision models. Street-view images before and after 2024 Hurricane Milton in Horseshoe Beach, Florida, were collected for experiments. The objectives are: (1) to assess the performance gains of incorporating pre-disaster street-view images as a no-damage category in fine-tuning pre-trained models, including Swin Transformer and ConvNeXt, for damage level classification; (2) to design and evaluate a dual-channel algorithm that reads pair-wise pre- and post-disaster street-view images for hyperlocal damage assessment. The results indicate that incorporating pre-disaster street-view images and employing a dual-channel processing framework can significantly enhance damage assessment accuracy. The accuracy improves from 66.14% with the Swin Transformer baseline to 77.11% with the dual-channel Feature-Fusion ConvNeXt model. This research enables rapid, operational damage assessments at hyperlocal spatial resolutions, providing valuable insights to support effective decision-making in disaster management and resilience planning.
- Abstract(参考訳): ストリートビュー画像は、視覚的視点からの影響を捉え、地上での詳細な洞察を提供するので、災害被害推定にユニークな利点を提供する。
被害推定のためのストリートビュー画像を解析しようとする調査は何度か行われたが、主に災害後の画像に焦点を当てている。
時系列のストリートビュー画像の可能性については、まだ解明されていない。
プレディザスター画像は、建物や街路での正確な損傷推定のための貴重なベンチマークを提供する。
これらの画像は、アノテータが障害後の影響を客観的にラベル付けし、モデルトレーニングのためのラベル付きデータセットの信頼性を改善し、損傷評価におけるモデル性能を向上させるのに役立つ。
本研究の目的は,双方向のストリートビュー画像と高度な事前学習型視覚モデルを用いて,局地的,地上的な災害被害を推定することである。
2024年、フロリダ州ホースシュービーチのハリケーン・ミルトン(Hurricane Milton)の前後のストリートビュー画像は、実験のために収集された。
本研究の目的は,(1)Swin Transformer や ConvNeXt などの微調整済みモデルのストリートビューイメージを損傷レベル分類のための非損傷カテゴリとして組み込んだ場合のパフォーマンス向上を評価すること,(2) 局地的被害評価のためのペアワイズ・プレ・ポスト・ストリートビュー画像を読み取るデュアルアルゴリズムの設計と評価を行うことである。
その結果,事前のストリートビュー画像とデュアルチャネル処理フレームワークを併用することで,損傷評価精度を著しく向上させることができることがわかった。
Swin Transformerベースラインで66.14%の精度が、デュアルチャネルのFeature-Fusion ConvNeXtモデルで77.11%に向上した。
本研究は,災害管理とレジリエンス計画における効果的な意思決定を支援するための貴重な洞察を提供するため,超局所的な空間解像度での迅速な運用的被害評価を可能にする。
関連論文リスト
- Cut-and-Paste with Precision: a Content and Perspective-aware Data Augmentation for Road Damage Detection [5.939858158928473]
道路の損傷は、道路インフラの完全性、安全性、耐久性に重大な課題をもたらす可能性がある。
近年、道路監視アプリケーションにおいて、画像に基づく損傷検出のための様々なデータ駆動手法が研究されている。
本稿では、コンテンツ認識(すなわち、画像中の道路の真の位置を考える)と視点認識(すなわち、注入された損傷と対象画像との視点の差を考慮する)の両面から改善されたカット・アンド・ペースト増強手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T09:06:42Z) - DeepDamageNet: A two-step deep-learning model for multi-disaster building damage segmentation and classification using satellite imagery [12.869300064524122]
本稿では, 損傷評価, セグメンテーション, 分類において, ディープラーニングモデルによる2つの重要な課題を遂行するソリューションを提案する。
我々の最良のモデルは、建物識別セマンティックセグメンテーション畳み込みニューラルネットワーク(CNN)と建物損傷分類CNNを組み合わせ、合計F1スコアは0.66である。
本モデルでは比較的精度の高い建物を同定することができたが,災害タイプによる被害の分類は困難であることが判明した。
論文 参考訳(メタデータ) (2024-05-08T04:21:03Z) - Post-hurricane building damage assessment using street-view imagery and structured data: A multi-modal deep learning approach [1.748885212343545]
我々は,Multi-Modal Swin Transformer (MMST) という,ハリケーン後の建物被害分類のための新しいマルチモーダルアプローチを提案する。
フロリダ州の2022年ハリケーンIanから収集したデータを用いて,提案したMMSTを実験的に訓練し,評価した。
その結果、MMSTは選択された最先端ベンチマークモデルよりも優れており、精度は92.67%であることがわかった。
論文 参考訳(メタデータ) (2024-04-11T00:23:28Z) - Image Prior and Posterior Conditional Probability Representation for
Efficient Damage Assessment [51.631659414455825]
人的援助及び災害対応のための被害評価の定量化が重要である。
本稿では,画像先行と後部条件付き確率(IP2CP)を有効計算画像表現として開発する。
一致した前と後の画像は、1つの画像に効果的に符号化され、その画像は深層学習アプローチを用いて処理され、損傷レベルが決定される。
論文 参考訳(メタデータ) (2023-10-26T22:17:37Z) - CARNet: Collaborative Adversarial Resilience for Robust Underwater Image Enhancement and Perception [16.135354859458758]
我々は,CARNetと呼ばれる協調対向レジリエンスネットワークを導入し,水中画像の強調とそれに続く検出を行う。
本研究ではまず,水中画像から攻撃を分離する強力な知覚能力を持つ可逆ネットワークを導入する。
また,異なるタイプの攻撃に対するネットワークの堅牢性を高めるために,二段階攻撃最適化手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z) - Improving Emergency Response during Hurricane Season using Computer
Vision [0.06882042556551608]
我々は,コンピュータビジョン(CV),内陸洪水予知,被害評価,データ可視化といった最新の技術を組み込んだ危機対応・管理のためのフレームワークを開発した。
我々のコンピュータビジョンモデルは、自然災害の前後で、宇宙と空中の画像を分析して、関連する特徴を検出する。
画像から水、道路、建物、植生などの特徴を識別するモデル群を設計した。
論文 参考訳(メタデータ) (2020-08-17T15:42:02Z) - MSNet: A Multilevel Instance Segmentation Network for Natural Disaster
Damage Assessment in Aerial Videos [74.22132693931145]
本研究では, ハリケーン, 洪水, 火災などの自然災害後の建物被害を効率的に評価する課題について検討する。
最初のコントリビューションは、ソーシャルメディアからユーザ生成された空中ビデオと、インスタンスレベルのビルディング損傷マスクのアノテーションで構成される、新しいデータセットである。
第二のコントリビューションはMSNetと呼ばれる新しいモデルで、新しい領域の提案ネットワーク設計を含んでいる。
論文 参考訳(メタデータ) (2020-06-30T02:23:05Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z) - An Attention-Based System for Damage Assessment Using Satellite Imagery [18.43310705820528]
本稿では,建物の損傷レベルを評価するため,Siam-U-Net-Attnモデルを提案する。
大規模建物被害評価データセットである xView2 上で提案手法の評価を行い,提案手法が正確な被害規模分類と建物分割を同時に達成できることを実証した。
論文 参考訳(メタデータ) (2020-04-14T16:37:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。