論文の概要: MONITRS: Multimodal Observations of Natural Incidents Through Remote Sensing
- arxiv url: http://arxiv.org/abs/2507.16228v1
- Date: Tue, 22 Jul 2025 04:59:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.968256
- Title: MONITRS: Multimodal Observations of Natural Incidents Through Remote Sensing
- Title(参考訳): リモートセンシングによる自然現象のマルチモーダル観察
- Authors: Shreelekha Revankar, Utkarsh Mall, Cheng Perng Phoo, Kavita Bala, Bharath Hariharan,
- Abstract要約: 我々は,1万件以上のFEMA災害イベントを,時空間衛星画像とニュース記事からの自然言語アノテーションで表現した新しいデータセットであるMONITRSを提示する。
既存のMLLMをデータセットに微調整することで,災害監視タスクの性能が大幅に向上することが実証された。
- 参考スコア(独自算出の注目度): 39.47126465689941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural disasters cause devastating damage to communities and infrastructure every year. Effective disaster response is hampered by the difficulty of accessing affected areas during and after events. Remote sensing has allowed us to monitor natural disasters in a remote way. More recently there have been advances in computer vision and deep learning that help automate satellite imagery analysis, However, they remain limited by their narrow focus on specific disaster types, reliance on manual expert interpretation, and lack of datasets with sufficient temporal granularity or natural language annotations for tracking disaster progression. We present MONITRS, a novel multimodal dataset of more than 10,000 FEMA disaster events with temporal satellite imagery and natural language annotations from news articles, accompanied by geotagged locations, and question-answer pairs. We demonstrate that fine-tuning existing MLLMs on our dataset yields significant performance improvements for disaster monitoring tasks, establishing a new benchmark for machine learning-assisted disaster response systems. Code can be found at: https://github.com/ShreelekhaR/MONITRS
- Abstract(参考訳): 自然災害は毎年、地域社会やインフラに壊滅的な被害をもたらす。
効果的な災害対応は、イベントの前後で被害地域にアクセスすることの難しさによって妨げられる。
リモートセンシングは自然災害を遠隔で監視することを可能にする。
最近では、衛星画像解析の自動化を支援するコンピュータビジョンやディープラーニングが進歩しているが、特定の災害タイプ、手作業による解釈への依存、災害の進行を追跡するのに十分な時間的粒度のデータセットや自然言語アノテーションが欠如していることに制限されている。
本報告では,1万件を超えるFEMA災害イベントのマルチモーダルデータセットであるMONITRSについて,ジオタグ付きロケーションと質問応答ペアを伴って,ニュース記事からの時空間衛星画像と自然言語アノテーションを提示する。
我々のデータセット上で既存のMLLMを微調整すると、災害監視タスクのパフォーマンスが大幅に向上し、機械学習支援災害対応システムのための新しいベンチマークが確立される。
コードは https://github.com/ShreelekhaR/MONITRS
関連論文リスト
- A Deep Learning framework for building damage assessment using VHR SAR and geospatial data: demonstration on the 2023 Turkiye Earthquake [1.6070833439280312]
災害直後の被害の特定は緊急対応・復旧の指導に不可欠である。
超高分解能(VHR)合成開口レーダ(SAR)画像を用いた建物損傷検出のための新しい多モードディープラーニング(DL)フレームワークを提案する。
SAR画像パッチ、OpenStreetMap(OSM)構築フットプリント、デジタル表面モデル(DSM)データ、グローバル地震モデル(GEM)の構造と露出特性を統合する。
その結果,地理空間的特徴を取り入れることで,これまで見られなかった領域に対する検出性能と一般化性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-06-27T15:49:58Z) - DisasterM3: A Remote Sensing Vision-Language Dataset for Disaster Damage Assessment and Response [20.208384252534657]
DisasterM3は、世界規模の災害評価と対応のためのビジョン言語データセットである。
災害M3には、26,988のバイテンポラル衛星画像と5大陸にまたがる123kの命令対が含まれる。
現実世界のシナリオに基づいて、DeramM3は9つの災害関連視覚認識と推論タスクを含んでいる。
論文 参考訳(メタデータ) (2025-05-27T12:16:07Z) - Harnessing Large Language Models for Disaster Management: A Survey [57.00123968209682]
大規模言語モデル(LLM)は、その例外的な能力で科学研究に革命をもたらし、様々な分野を変革した。
本研究の目的は,災害対策のための高度LLMの開発における専門家コミュニティの指導であり,自然災害に対するレジリエンスを高めることである。
論文 参考訳(メタデータ) (2025-01-12T21:00:50Z) - CrisisSense-LLM: Instruction Fine-Tuned Large Language Model for Multi-label Social Media Text Classification in Disaster Informatics [49.2719253711215]
本研究では,事前学習型大規模言語モデル(LLM)の強化による災害テキスト分類への新たなアプローチを提案する。
本手法では,災害関連ツイートから包括的インストラクションデータセットを作成し,それをオープンソース LLM の微調整に用いる。
この微調整モデルでは,災害関連情報の種類,情報化,人的援助の関与など,複数の側面を同時に分類することができる。
論文 参考訳(メタデータ) (2024-06-16T23:01:10Z) - Typhoon Intensity Prediction with Vision Transformer [51.84456610977905]
台風強度を正確に予測するために「台風強度変換器(Tint)」を導入する。
Tintは、層ごとにグローバルな受容野を持つ自己認識機構を使用する。
公開されている台風ベンチマークの実験は、Tintの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-28T03:11:33Z) - CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - DisasterNets: Embedding Machine Learning in Disaster Mapping [24.385872724685655]
DisasterNetsは、機械学習を使用して災害を迅速かつ正確に認識するためのフレームワークである。
この枠組みは, 地すべりと大規模洪水のマッピングに応用されている。
その結果, 災害の高精度, 高効率, クロスシーン認識の競争性能が示された。
論文 参考訳(メタデータ) (2023-06-16T12:50:46Z) - Disaster Anomaly Detector via Deeper FCDDs for Explainable Initial
Responses [0.0]
あらゆる災害イベントにおいて、最初の応答は72時間以内に救助し、回復を急ぐ鍵である。
機械学習アルゴリズムのうち、深い異常検出は日常の特徴とは異なる破壊的特徴を検出するのに有効である。
本稿では,より深い完全畳み込みデータ記述(FCDD)を利用した異常検出アプリケーションを提案する。
VGG16バックボーンを持つ深いFCDDは、他のベースラインであるCNN27、ResNet101、Inceptionv3より一貫して優れていた。
論文 参考訳(メタデータ) (2023-06-05T00:44:39Z) - Incidents1M: a large-scale dataset of images with natural disasters,
damage, and incidents [28.16346818821349]
洪水、竜巻、山火事などの自然災害は、地球が温暖化するにつれてますます広まりつつある。
事故の発生時期や発生時期を予測することは困難であり、破壊的な出来事によって危険にさらされている人々の命を救うために、時折緊急対応が重要となる。
ソーシャルメディア投稿は、災害の進行と余波を理解するために低レイテンシデータソースとして使用できるが、このデータを解析するのは、自動化された方法なしでは面倒である。
本研究では,43のインシデントと49のカテゴリを含む977,088の画像を含む大規模マルチラベルデータセットであるインシデント1Mデータセットを提案する。
論文 参考訳(メタデータ) (2022-01-11T23:03:57Z) - Physics-informed GANs for Coastal Flood Visualization [65.54626149826066]
我々は,現在および将来の沿岸洪水の衛星画像を生成する深層学習パイプラインを構築した。
物理に基づく洪水図と比較して画像を評価することにより,提案手法は物理的一貫性とフォトリアリズムの両方において,ベースラインモデルよりも優れていることがわかった。
この研究は沿岸の洪水の可視化に焦点が当てられているが、気候変動が地球をどう形作るかのグローバルな可視化を作成することを想定している。
論文 参考訳(メタデータ) (2020-10-16T02:15:34Z) - Learning from Multimodal and Multitemporal Earth Observation Data for
Building Damage Mapping [17.324397643429638]
我々は、損傷マッピングを構築するためのグローバルなマルチセンサとマルチテンポラルデータセットを開発した。
グローバルデータセットには、高解像度の光学画像と高解像度のマルチバンドSARデータが含まれている。
我々は、深層畳み込みニューラルネットワークアルゴリズムに基づいて、損傷建物の意味的セグメンテーションのための損傷マッピングフレームワークを定義した。
論文 参考訳(メタデータ) (2020-09-14T05:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。