論文の概要: Structural Damage Detection Using AI Super Resolution and Visual Language Model
- arxiv url: http://arxiv.org/abs/2508.17130v1
- Date: Sat, 23 Aug 2025 20:12:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.357516
- Title: Structural Damage Detection Using AI Super Resolution and Visual Language Model
- Title(参考訳): AIスーパーレゾリューションと視覚言語モデルを用いた構造損傷検出
- Authors: Catherine Hoier, Khandaker Mamun Ahmed,
- Abstract要約: 本研究では,空飛ぶドローン映像,高度なAIベースビデオ超解像モデル,ビデオ再生変換器(VRT),および27億パラメータビジュアル言語モデル(VLM)であるGemma3:27bを活用する,費用対効果の高い新しいフレームワークを提案する。
この統合システムは、低解像度の災害映像を改善し、構造的損傷を特定し、建物を4つの損傷カテゴリーに分類するように設計されている。
このフレームワークは84.5%の精度を達成し、非常に正確な結果を提供する能力を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural disasters pose significant challenges to timely and accurate damage assessment due to their sudden onset and the extensive areas they affect. Traditional assessment methods are often labor-intensive, costly, and hazardous to personnel, making them impractical for rapid response, especially in resource-limited settings. This study proposes a novel, cost-effective framework that leverages aerial drone footage, an advanced AI-based video super-resolution model, Video Restoration Transformer (VRT), and Gemma3:27b, a 27 billion parameter Visual Language Model (VLM). This integrated system is designed to improve low-resolution disaster footage, identify structural damage, and classify buildings into four damage categories, ranging from no/slight damage to total destruction, along with associated risk levels. The methodology was validated using pre- and post-event drone imagery from the 2023 Turkey earthquakes (courtesy of The Guardian) and satellite data from the 2013 Moore Tornado (xBD dataset). The framework achieved a classification accuracy of 84.5%, demonstrating its ability to provide highly accurate results. Furthermore, the system's accessibility allows non-technical users to perform preliminary analyses, thereby improving the responsiveness and efficiency of disaster management efforts.
- Abstract(参考訳): 自然災害は、その突然の発症と、それらが影響する広範囲な地域により、時間的かつ正確な被害評価に重大な課題をもたらす。
従来の評価手法は、労働集約的でコストがかかり、人員にとって危険であり、特に資源制限された環境では、迅速な対応には実用的ではない。
本研究では,空飛ぶドローン映像,高度なAIベースのビデオ超解像モデル,ビデオ再生変換器(VRT),および27億のパラメータVisual Language Model(VLM)であるGemma3:27bを活用する,費用対効果の高い新しいフレームワークを提案する。
この統合システムは、低解像度の災害映像を改善し、構造的な損傷を特定し、建物を4つの損傷カテゴリーに分類するように設計されている。
この手法は、2023年のトルコ地震(ガーディアン事件)の前後のドローン画像と2013年のムーア・トルネード(英語版)の衛星データを用いて検証された。
このフレームワークは84.5%の精度を達成し、非常に正確な結果を提供する能力を示した。
さらに、システムアクセシビリティにより、非技術者が予備分析を行うことで、災害管理作業の応答性と効率を向上させることができる。
関連論文リスト
- Addressing Camera Sensors Faults in Vision-Based Navigation: Simulation and Dataset Development [41.94295877935867]
本研究は、惑星間探査ミッションのシナリオに焦点を当てる。
VBNパイプライン内で使用されるカメラセンサの潜在的な故障事例を包括的に分析する。
合成画像中の故障状態を再現するシミュレーションフレームワークを導入し、故障データの体系的かつ制御された再生を可能にする。
結果として得られたフォールトインジェクト画像のデータセットは、AIベースのフォールト検出アルゴリズムをトレーニングし、テストするための貴重なツールを提供する。
論文 参考訳(メタデータ) (2025-07-03T13:23:22Z) - A Deep Learning framework for building damage assessment using VHR SAR and geospatial data: demonstration on the 2023 Turkiye Earthquake [1.6070833439280312]
災害直後の被害の特定は緊急対応・復旧の指導に不可欠である。
超高分解能(VHR)合成開口レーダ(SAR)画像を用いた建物損傷検出のための新しい多モードディープラーニング(DL)フレームワークを提案する。
SAR画像パッチ、OpenStreetMap(OSM)構築フットプリント、デジタル表面モデル(DSM)データ、グローバル地震モデル(GEM)の構造と露出特性を統合する。
その結果,地理空間的特徴を取り入れることで,これまで見られなかった領域に対する検出性能と一般化性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-06-27T15:49:58Z) - Deep Self-Supervised Disturbance Mapping with the OPERA Sentinel-1 Radiometric Terrain Corrected SAR Backscatter Product [41.94295877935867]
地表面の乱れのマッピングは、災害対応、資源と生態系の管理、気候適応の取り組みを支援する。
合成開口レーダ(SAR)は、気象や照明条件に関わらず、地上の連続した時系列画像を提供する、外乱マッピングのための貴重なツールである。
NASAのRemote Sensing Analysis (OPERA)プロジェクトは2023年10月にSentinel-1 (RTC-S1)データセットからほぼグローバルな測地線補正SAR後方散乱器をリリースした。
本研究では,地表面の乱れを体系的に解析するために,この新たなデータセットを利用する。
論文 参考訳(メタデータ) (2025-01-15T20:24:18Z) - Accelerating Post-Tornado Disaster Assessment Using Advanced Deep Learning Models [0.0]
本研究は,先進的な深層学習モデルを用いて,災害後の評価を自動化する革新的なアプローチを導入する。
提案システムは,災害現場の画像や映像を高速に解析するために,最先端のコンピュータビジョン技術を用いている。
実験の結果,ResNet50の精度は90.28%,画像毎の推定時間は1529msであり,有望な性能を示した。
論文 参考訳(メタデータ) (2024-12-24T04:04:33Z) - Multiclass Post-Earthquake Building Assessment Integrating High-Resolution Optical and SAR Satellite Imagery, Ground Motion, and Soil Data with Transformers [0.0]
本研究では,地震後の高分解能衛星画像と構造物の耐震性能に関連する建築固有のメタデータを組み合わせたフレームワークを提案する。
2023年2月6日トルコ・シリア地震の建物群を対象とした多層地震後の被害同定において, 現状の成果が得られた。
論文 参考訳(メタデータ) (2024-12-05T23:19:51Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Classification of structural building damage grades from multi-temporal
photogrammetric point clouds using a machine learning model trained on
virtual laser scanning data [58.720142291102135]
実世界の点雲からの多層建築物の損傷を自動的に評価する新しい手法を提案する。
我々は、仮想レーザースキャン(VLS)データに基づいて訓練された機械学習モデルを使用する。
このモデルでは、高いマルチターゲット分類精度(全精度:92.0% - 95.1%)が得られる。
論文 参考訳(メタデータ) (2023-02-24T12:04:46Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。