論文の概要: Detecting Damage Building Using Real-time Crowdsourced Images and
Transfer Learning
- arxiv url: http://arxiv.org/abs/2110.05762v1
- Date: Tue, 12 Oct 2021 06:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 14:40:50.129254
- Title: Detecting Damage Building Using Real-time Crowdsourced Images and
Transfer Learning
- Title(参考訳): リアルタイムクラウドソーシング画像による被害検出と伝達学習
- Authors: Gaurav Chachra, Qingkai Kong, Jim Huang, Srujay Korlakunta, Jennifer
Grannen, Alexander Robson, Richard Allen
- Abstract要約: 本稿では,Twitterなどのソーシャルメディアプラットフォームから地震後の建物画像を自動的に抽出する手法を提案する。
トランスファーラーニングと6500枚の手動ラベル付き画像を用いて,現場に損傷のある建物を画像として認識する深層学習モデルを訓練した。
訓練されたモデルは、異なる場所で新たに取得した地震の画像でテストし、トルコのM7.0地震の後、Twitterのフィードでほぼリアルタイムで実行された。
- 参考スコア(独自算出の注目度): 53.26496452886417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: After significant earthquakes, we can see images posted on social media
platforms by individuals and media agencies owing to the mass usage of
smartphones these days. These images can be utilized to provide information
about the shaking damage in the earthquake region both to the public and
research community, and potentially to guide rescue work. This paper presents
an automated way to extract the damaged building images after earthquakes from
social media platforms such as Twitter and thus identify the particular user
posts containing such images. Using transfer learning and ~6500 manually
labelled images, we trained a deep learning model to recognize images with
damaged buildings in the scene. The trained model achieved good performance
when tested on newly acquired images of earthquakes at different locations and
ran in near real-time on Twitter feed after the 2020 M7.0 earthquake in Turkey.
Furthermore, to better understand how the model makes decisions, we also
implemented the Grad-CAM method to visualize the important locations on the
images that facilitate the decision.
- Abstract(参考訳): 大規模な地震の後、スマートフォンの大量使用により個人やメディアがソーシャルメディアプラットフォームに投稿した画像を見ることができる。
これらの画像は, 地震地域の地震被害に関する情報を公共・研究コミュニティの両方に提供し, 救助作業の指導に活用することができる。
本稿では,twitterなどのソーシャルメディアプラットフォームから地震後の建物画像を自動的に抽出し,その画像を含む特定のユーザ投稿を識別する手法を提案する。
トランスファーラーニングと6500枚の手動ラベル付き画像を用いて,現場に損傷のある建物を画像として認識する深層学習モデルを訓練した。
訓練されたモデルは、異なる場所で新たに取得した地震の画像でテストし、トルコのM7.0地震の後、Twitterフィードでほぼリアルタイムで実行された。
さらに,モデルの意思決定方法の理解を深めるために,画像上の重要な位置を可視化するgrad-cam手法も実装した。
関連論文リスト
- Weakly-supervised Camera Localization by Ground-to-satellite Image Registration [52.54992898069471]
本稿では,地対衛星画像登録のための弱教師付き学習戦略を提案する。
地上画像ごとに正の衛星画像と負の衛星画像を導き出す。
また,クロスビュー画像の相対回転推定のための自己超越戦略を提案する。
論文 参考訳(メタデータ) (2024-09-10T12:57:16Z) - CrisisSense-LLM: Instruction Fine-Tuned Large Language Model for Multi-label Social Media Text Classification in Disaster Informatics [49.2719253711215]
本研究では,事前学習型大規模言語モデル(LLM)の強化による災害テキスト分類への新たなアプローチを提案する。
本手法では,災害関連ツイートから包括的インストラクションデータセットを作成し,それをオープンソース LLM の微調整に用いる。
この微調整モデルでは,災害関連情報の種類,情報化,人的援助の関与など,複数の側面を同時に分類することができる。
論文 参考訳(メタデータ) (2024-06-16T23:01:10Z) - Generalizable Disaster Damage Assessment via Change Detection with Vision Foundation Model [17.016411785224317]
本稿では, DAVI(Disaster Assessment with VIsion foundation model)を提案する。
DAVIは、ソース領域でトレーニングされたモデルからイメージセグメンテーション基礎モデルにタスク固有の知識を統合し、ターゲット領域の損傷の可能性を示す擬似ラベルを生成する。
次に、ピクセルと全体像の両方をターゲットとした2段階の精細化プロセスを使用して、災害現場におけるより正確に変化を特定します。
論文 参考訳(メタデータ) (2024-06-12T09:21:28Z) - QuakeSet: A Dataset and Low-Resource Models to Monitor Earthquakes through Sentinel-1 [5.279257531335345]
本稿では,Sentinel-1から得られた画像からなる新しいデータセットを提案する。
地震解析におけるMLモデルの有効性を評価するために,従来の機械学習モデルとディープラーニングモデルをベースラインとして提供する。
論文 参考訳(メタデータ) (2024-03-26T21:45:29Z) - Classification of structural building damage grades from multi-temporal
photogrammetric point clouds using a machine learning model trained on
virtual laser scanning data [58.720142291102135]
実世界の点雲からの多層建築物の損傷を自動的に評価する新しい手法を提案する。
我々は、仮想レーザースキャン(VLS)データに基づいて訓練された機械学習モデルを使用する。
このモデルでは、高いマルチターゲット分類精度(全精度:92.0% - 95.1%)が得られる。
論文 参考訳(メタデータ) (2023-02-24T12:04:46Z) - Twitter Data Analysis: Izmir Earthquake Case [0.0]
本研究では,2020年10月に発生したイズミル地震のTwitter投稿を分析した。
この分析にはデータマイニングと自然言語処理(NLP)手法が用いられている。
被災者の希望を共有し,地震後の支援活動に貢献することを目的とした。
論文 参考訳(メタデータ) (2022-12-02T21:30:34Z) - There is a Time and Place for Reasoning Beyond the Image [63.96498435923328]
画像は人間の目へのピクセルだけでなく、他のソースからのコンテキスト情報から推論、関連付け、推論して、推論することで、より完全な画像を確立することができる。
我々は、ニューヨーク・タイムズ(NYT)から自動的に抽出された16k画像と関連するニュース、時間、位置のデータセットTARAと、WITから離れた監視対象として追加で61k例を紹介した。
我々は、最先端のジョイントモデルと人間のパフォーマンスの間に70%のギャップがあることを示し、これは、セグメントワイズ推論を用いて高レベルな視覚言語ジョイントモデルを動機づける提案モデルによってわずかに満たされている。
論文 参考訳(メタデータ) (2022-03-01T21:52:08Z) - Incidents1M: a large-scale dataset of images with natural disasters,
damage, and incidents [28.16346818821349]
洪水、竜巻、山火事などの自然災害は、地球が温暖化するにつれてますます広まりつつある。
事故の発生時期や発生時期を予測することは困難であり、破壊的な出来事によって危険にさらされている人々の命を救うために、時折緊急対応が重要となる。
ソーシャルメディア投稿は、災害の進行と余波を理解するために低レイテンシデータソースとして使用できるが、このデータを解析するのは、自動化された方法なしでは面倒である。
本研究では,43のインシデントと49のカテゴリを含む977,088の画像を含む大規模マルチラベルデータセットであるインシデント1Mデータセットを提案する。
論文 参考訳(メタデータ) (2022-01-11T23:03:57Z) - Generating Physically-Consistent Satellite Imagery for Climate Visualizations [53.61991820941501]
我々は,将来的な洪水や森林再生イベントの合成衛星画像を作成するために,生成的敵ネットワークを訓練する。
純粋なディープラーニングベースのモデルでは、洪水の可視化を生成することができるが、洪水の影響を受けない場所では幻覚的な洪水が発生する。
我々は,地球観測におけるセグメンテーションガイドによる画像と画像の変換のためのコードとデータセットを公開している。
論文 参考訳(メタデータ) (2021-04-10T15:00:15Z) - Detecting natural disasters, damage, and incidents in the wild [26.73896031797989]
様々な場面で43件のインシデントをカバーしている人間によって注釈付けされた446,684枚の画像を含むインシデントデータセットを提示する。
我々は,偽陽性誤りを緩和するベースライン分類モデルを採用し,FlickrとTwitterの何百万ものソーシャルメディア画像に対して画像フィルタリング実験を行った。
論文 参考訳(メタデータ) (2020-08-20T20:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。