論文の概要: Post-Hurricane Debris Segmentation Using Fine-Tuned Foundational Vision Models
- arxiv url: http://arxiv.org/abs/2504.12542v1
- Date: Thu, 17 Apr 2025 00:08:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:37:04.385674
- Title: Post-Hurricane Debris Segmentation Using Fine-Tuned Foundational Vision Models
- Title(参考訳): 微調整基礎視覚モデルを用いたハリケーン後デブリセグメンテーション
- Authors: Kooshan Amini, Yuhao Liu, Jamie Ellen Padgett, Guha Balakrishnan, Ashok Veeraraghavan,
- Abstract要約: この研究は、Hulicanes Ian、Ida、Ikeの約1200個の手動の空中RGB画像からなるオープンソースデータセットを導入している。
人間のバイアスを緩和し、データ品質を向上させるため、複数のアノテータからのラベルを戦略的に集約し、視覚的なプロンプトエンジニアリングを採用する。
結果として得られた細調整されたモデルであるfCLIPSegは、ハリケーン・アイダのデータからデブリのない地域では事実上偽陽性のDiceスコアが0.70に達する。
- 参考スコア(独自算出の注目度): 18.008592164636664
- License:
- Abstract: Timely and accurate detection of hurricane debris is critical for effective disaster response and community resilience. While post-disaster aerial imagery is readily available, robust debris segmentation solutions applicable across multiple disaster regions remain limited. Developing a generalized solution is challenging due to varying environmental and imaging conditions that alter debris' visual signatures across different regions, further compounded by the scarcity of training data. This study addresses these challenges by fine-tuning pre-trained foundational vision models, achieving robust performance with a relatively small, high-quality dataset. Specifically, this work introduces an open-source dataset comprising approximately 1,200 manually annotated aerial RGB images from Hurricanes Ian, Ida, and Ike. To mitigate human biases and enhance data quality, labels from multiple annotators are strategically aggregated and visual prompt engineering is employed. The resulting fine-tuned model, named fCLIPSeg, achieves a Dice score of 0.70 on data from Hurricane Ida -- a disaster event entirely excluded during training -- with virtually no false positives in debris-free areas. This work presents the first event-agnostic debris segmentation model requiring only standard RGB imagery during deployment, making it well-suited for rapid, large-scale post-disaster impact assessments and recovery planning.
- Abstract(参考訳): 時間的かつ正確なハリケーンの破片検出は, 災害対策とコミュニティのレジリエンスに不可欠である。
災害後の航空画像は容易に手に入るが、複数の災害地域に適用可能な堅牢なデブリセグメンテーションソリューションは依然として限られている。
一般化されたソリューションの開発は、さまざまな領域にわたるデブリの視覚的シグネチャを変化させる様々な環境条件とイメージング条件のために困難であり、さらにトレーニングデータの不足によって複雑化されている。
本研究では、事前訓練された基礎視覚モデルを微調整し、比較的小型で高品質なデータセットで堅牢な性能を達成することにより、これらの課題に対処する。
具体的には、Hulicanes Ian氏、Ida氏、Ike氏による、約1200の手動の空中RGB画像からなるオープンソースのデータセットを紹介します。
人間のバイアスを緩和し、データ品質を向上させるため、複数のアノテータからのラベルを戦略的に集約し、視覚的なプロンプトエンジニアリングを採用する。
結果として得られた細調整されたモデルであるfCLIPSegは、訓練中に完全に除外されたハリケーンIdaのデータに対するDiceスコア0.70を達成している。
本研究は、展開中に標準RGB画像のみを必要とする最初の事象に依存しないデブリセグメンテーションモデルを示し、高速で大規模な影響評価とリカバリ計画に適している。
関連論文リスト
- Deep Self-Supervised Disturbance Mapping with the OPERA Sentinel-1 Radiometric Terrain Corrected SAR Backscatter Product [41.94295877935867]
地表面の乱れのマッピングは、災害対応、資源と生態系の管理、気候適応の取り組みを支援する。
合成開口レーダ(SAR)は、気象や照明条件に関わらず、地上の連続した時系列画像を提供する、外乱マッピングのための貴重なツールである。
NASAのRemote Sensing Analysis (OPERA)プロジェクトは2023年10月にSentinel-1 (RTC-S1)データセットからほぼグローバルな測地線補正SAR後方散乱器をリリースした。
本研究では,地表面の乱れを体系的に解析するために,この新たなデータセットを利用する。
論文 参考訳(メタデータ) (2025-01-15T20:24:18Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - AB2CD: AI for Building Climate Damage Classification and Detection [0.0]
本研究では, 自然災害の文脈において, 建物の損傷評価を正確に行うための深層学習手法の実装について検討する。
我々は,低品質・騒音ラベルの影響を考慮しつつ,新たな災害・地域への一般化の課題に取り組む。
我々の研究結果は、気候変動によって引き起こされる極端気象事象の影響評価を強化するための高度なAIソリューションの可能性と限界を示している。
論文 参考訳(メタデータ) (2023-09-03T03:37:04Z) - One-class Damage Detector Using Deeper Fully-Convolutional Data
Descriptions for Civil Application [0.0]
モデルパラメータを最適化するために、通常の画像を使用することができる点において、一級損傷検出アプローチには利点がある。
本稿では,FCDDをベースラインモデルとして再現した一級損傷検出の汎用アプリケーションを提案する。
論文 参考訳(メタデータ) (2023-03-03T06:27:15Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Unsupervised Restoration of Weather-affected Images using Deep Gaussian
Process-based CycleGAN [92.15895515035795]
本稿では,CycleGANに基づくディープネットワークの監視手法について述べる。
我々は,より効果的なトレーニングにつながるCycleGANのトレーニングに新たな損失を導入し,高品質な再構築を実現した。
提案手法は, 脱落, 脱落, 脱落といった様々な修復作業に効果的に適用できることを実証する。
論文 参考訳(メタデータ) (2022-04-23T01:30:47Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z) - Learning from Multimodal and Multitemporal Earth Observation Data for
Building Damage Mapping [17.324397643429638]
我々は、損傷マッピングを構築するためのグローバルなマルチセンサとマルチテンポラルデータセットを開発した。
グローバルデータセットには、高解像度の光学画像と高解像度のマルチバンドSARデータが含まれている。
我々は、深層畳み込みニューラルネットワークアルゴリズムに基づいて、損傷建物の意味的セグメンテーションのための損傷マッピングフレームワークを定義した。
論文 参考訳(メタデータ) (2020-09-14T05:04:19Z) - Comprehensive Semantic Segmentation on High Resolution UAV Imagery for
Natural Disaster Damage Assessment [0.26249027950824505]
災害シナリオにおける視覚知覚のための大規模ハリケーン・マイケルデータセットを提案する。
セマンティックセグメンテーションのための最先端のディープニューラルネットワークモデルを分析する。
論文 参考訳(メタデータ) (2020-09-02T17:07:28Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。