論文の概要: Now you see it, Now you don't: Damage Label Agreement in Drone & Satellite Post-Disaster Imagery
- arxiv url: http://arxiv.org/abs/2505.08117v1
- Date: Mon, 12 May 2025 23:17:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.359483
- Title: Now you see it, Now you don't: Damage Label Agreement in Drone & Satellite Post-Disaster Imagery
- Title(参考訳): ドローンとサテライト・ポスト・ディスクスター画像におけるダメージラベル協定(動画あり)
- Authors: Thomas Manzini, Priyankari Perali, Jayesh Tripathi, Robin Murphy,
- Abstract要約: 建物損傷評価のためのドローン画像と衛星画像とのラベル合意についての研究は知られていない。
本稿では,Hulicanes Ian,Michael,Harvey各都市にまたがる15,814棟の衛星とドローンの空中画像から得られた損傷ラベルを検査する。
ラベルの不一致が29.02%で、両者のソース間で大きく異なることが判明し、機械学習の損傷評価システムを展開する際のリスクと潜在的な損害が報告されている。
- 参考スコア(独自算出の注目度): 0.5699788926464749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper audits damage labels derived from coincident satellite and drone aerial imagery for 15,814 buildings across Hurricanes Ian, Michael, and Harvey, finding 29.02% label disagreement and significantly different distributions between the two sources, which presents risks and potential harms during the deployment of machine learning damage assessment systems. Currently, there is no known study of label agreement between drone and satellite imagery for building damage assessment. The only prior work that could be used to infer if such imagery-derived labels agree is limited by differing damage label schemas, misaligned building locations, and low data quantities. This work overcomes these limitations by comparing damage labels using the same damage label schemas and building locations from three hurricanes, with the 15,814 buildings representing 19.05 times more buildings considered than the most relevant prior work. The analysis finds satellite-derived labels significantly under-report damage by at least 20.43% compared to drone-derived labels (p<1.2x10^-117), and satellite- and drone-derived labels represent significantly different distributions (p<5.1x10^-175). This indicates that computer vision and machine learning (CV/ML) models trained on at least one of these distributions will misrepresent actual conditions, as the differing satellite and drone-derived distributions cannot simultaneously represent the distribution of actual conditions in a scene. This potential misrepresentation poses ethical risks and potential societal harm if not managed. To reduce the risk of future societal harms, this paper offers four recommendations to improve reliability and transparency to decisio-makers when deploying CV/ML damage assessment systems in practice
- Abstract(参考訳): 本稿では, ハリケーン・イアン, ミカエル, ハーヴェイにまたがる15,814棟の衛星とドローンの航空画像から得られた損傷ラベルを検査し, 両者のラベルの相違点と分布が29.02%, 機械学習による損傷評価システムの展開におけるリスクと潜在的損害を示す。
現在、建物被害評価のためのドローン画像と衛星画像とのラベル合意について、定かではない。
このようなイメージから派生したラベルが一致しているかどうかを推測するのに使用できる以前の作業は、損傷ラベルのスキーマの違い、配置場所の整合性、データ量の低さによって制限される。
この研究は、被害ラベルを3つのハリケーンから同じ損傷ラベルスキーマと建築場所を用いて比較することでこれらの制限を克服し、15,814の建物は、最も関連する先行工事の19.05倍の建物と見なされている。
この分析では、衛星由来のラベルは、ドローン由来のラベル (p<1.2x10^-117) と比較して、少なくとも20.43%の被害率で大幅に減少し、衛星由来のラベルとドローン由来のラベルは、かなり異なる分布 (p<5.1x10^-175) を示す。
これは、これらの分布のうちの少なくとも1つで訓練されたコンピュータビジョンと機械学習(CV/ML)モデルが実際の条件を誤って表現することを示しており、異なる衛星とドローン由来の分布はシーン内の実際の条件の分布を同時に表現できない。
この潜在的な誤った表現は、倫理的リスクと、管理されていない場合の潜在的な社会的害を引き起こす。
将来的な社会的損害のリスクを軽減するため,CV/ML損傷評価システムを実際に運用する際には,デシシオメーカに対する信頼性と透明性を向上させるための4つの推奨事項を提供する。
関連論文リスト
- A region-wide, multi-year set of crop field boundary labels for Africa [0.0]
2017年から2023年の間に撮影された33,746枚のプラネット画像で、フィールドの境界線を定めました。
品質指標では、ラベルの品質は、全フィールド範囲の尺度では適度に高い(0.75)が、個々のフィールドの個数に関して低いことが示されている。
このサンプルは、中央値の畑の大きさと密度の変動を浮き彫りにして、地域の農業特性に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2024-12-24T15:14:58Z) - CRASAR-U-DROIDs: A Large Scale Benchmark Dataset for Building Alignment and Damage Assessment in Georectified sUAS Imagery [0.5699788926464749]
CRASAR-U-DROIDsは、SUASオルソモザイク画像の最大のラベル付きデータセットである。
CRASAR-U-DRIODsデータセットは、連邦政府が宣言した災害10件から52件(52件)のオルソモザイクで構成されている。
論文 参考訳(メタデータ) (2024-07-24T23:39:10Z) - DeepDamageNet: A two-step deep-learning model for multi-disaster building damage segmentation and classification using satellite imagery [12.869300064524122]
本稿では, 損傷評価, セグメンテーション, 分類において, ディープラーニングモデルによる2つの重要な課題を遂行するソリューションを提案する。
我々の最良のモデルは、建物識別セマンティックセグメンテーション畳み込みニューラルネットワーク(CNN)と建物損傷分類CNNを組み合わせ、合計F1スコアは0.66である。
本モデルでは比較的精度の高い建物を同定することができたが,災害タイプによる被害の分類は困難であることが判明した。
論文 参考訳(メタデータ) (2024-05-08T04:21:03Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - Multi-view deep learning for reliable post-disaster damage
classification [0.0]
本研究は,人工知能(AI)と多視点画像を用いた,より信頼性の高い建築損傷分類を実現することを目的とする。
提案モデルでは, ハリケーン・ハーヴェイに続き, 調査対象の建物について, 専門家ラベル付きジオタグ付き画像を含む偵察視覚データセットを訓練し, 検証した。
論文 参考訳(メタデータ) (2022-08-06T01:04:13Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z) - MSNet: A Multilevel Instance Segmentation Network for Natural Disaster
Damage Assessment in Aerial Videos [74.22132693931145]
本研究では, ハリケーン, 洪水, 火災などの自然災害後の建物被害を効率的に評価する課題について検討する。
最初のコントリビューションは、ソーシャルメディアからユーザ生成された空中ビデオと、インスタンスレベルのビルディング損傷マスクのアノテーションで構成される、新しいデータセットである。
第二のコントリビューションはMSNetと呼ばれる新しいモデルで、新しい領域の提案ネットワーク設計を含んでいる。
論文 参考訳(メタデータ) (2020-06-30T02:23:05Z) - Adversarial Fooling Beyond "Flipping the Label" [54.23547006072598]
CNNは、多くの重要なタスクにおいて、人間に近いか、人間のパフォーマンスよりも優れていることを示す。
これらの攻撃は、実際の展開において潜在的に危険である。
異なるCNNアーキテクチャの集合に対するいくつかの重要な敵攻撃を包括的に分析する。
論文 参考訳(メタデータ) (2020-04-27T13:21:03Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。