論文の概要: GaLeNet: Multimodal Learning for Disaster Prediction, Management and
Relief
- arxiv url: http://arxiv.org/abs/2206.09242v1
- Date: Sat, 18 Jun 2022 16:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 15:01:01.723777
- Title: GaLeNet: Multimodal Learning for Disaster Prediction, Management and
Relief
- Title(参考訳): GaLeNet: 災害予測・管理・救済のためのマルチモーダル学習
- Authors: Rohit Saha, Mengyi Fang, Angeline Yasodhara, Kyryl Truskovskyi, Azin
Asgarian, Daniel Homola, Raahil Shah, Frederik Dieleman, Jack Weatheritt,
Thomas Rogers
- Abstract要約: 本稿では,災害前画像と気象データとハリケーンの軌跡を補完することにより,被害の深刻度を評価するためのマルチモーダル・フレームワーク(GaLeNet)を提案する。
本稿では,GaLeNetがディスラスタ画像の欠如により,事前ディスラスタ画像の活用が可能であることを示し,意思決定の大幅な遅延を防止できることを示す。
- 参考スコア(独自算出の注目度): 2.007385102792989
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: After a natural disaster, such as a hurricane, millions are left in need of
emergency assistance. To allocate resources optimally, human planners need to
accurately analyze data that can flow in large volumes from several sources.
This motivates the development of multimodal machine learning frameworks that
can integrate multiple data sources and leverage them efficiently. To date, the
research community has mainly focused on unimodal reasoning to provide granular
assessments of the damage. Moreover, previous studies mostly rely on
post-disaster images, which may take several days to become available. In this
work, we propose a multimodal framework (GaLeNet) for assessing the severity of
damage by complementing pre-disaster images with weather data and the
trajectory of the hurricane. Through extensive experiments on data from two
hurricanes, we demonstrate (i) the merits of multimodal approaches compared to
unimodal methods, and (ii) the effectiveness of GaLeNet at fusing various
modalities. Furthermore, we show that GaLeNet can leverage pre-disaster images
in the absence of post-disaster images, preventing substantial delays in
decision making.
- Abstract(参考訳): ハリケーンなどの自然災害の後、数百万人が緊急支援を必要としている。
リソースを最適に割り当てるために、ヒューマンプランナーは複数のソースから大量に流れるデータを正確に分析する必要がある。
これにより、複数のデータソースを統合し、それらを効率的に活用できるマルチモーダル機械学習フレームワークの開発が動機付けられる。
これまで研究コミュニティは、被害の詳細な評価を行うために、ユニモーダル推論に重点を置いてきた。
さらに、これまでの研究は主にポスト・ディザスター画像に依存しており、利用には数日かかる可能性がある。
本研究では,災害前画像と気象データとハリケーンの軌跡を補完することにより,被害の重大度を評価するマルチモーダルフレームワーク(galenet)を提案する。
2つのハリケーンのデータをもとに 広範囲にわたる実験を行い
(i)マルチモーダルアプローチの利点とユニモーダル法との比較
(II)様々なモダリティを融合させるGaLeNetの有効性。
さらに、GaLeNetは、ディスアスター後の画像がない場合に、プリディスアスター画像を利用することができ、意思決定のかなりの遅延を防止できることを示す。
関連論文リスト
- Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Inter-slice Super-resolution of Magnetic Resonance Images by Pre-training and Self-supervised Fine-tuning [49.197385954021456]
臨床実践では、2次元磁気共鳴(MR)シーケンスが広く採用されている。個々の2次元スライスを積み重ねて3次元ボリュームを形成できるが、比較的大きなスライスススペーシングは可視化とその後の解析タスクに課題をもたらす可能性がある。
スライス間隔を低減するため,ディープラーニングに基づく超解像技術が広く研究されている。
現在のほとんどのソリューションは、教師付きトレーニングのために、かなりの数の高解像度と低解像度の画像を必要とするが、通常は現実のシナリオでは利用できない。
論文 参考訳(メタデータ) (2024-06-10T02:20:26Z) - Robust Disaster Assessment from Aerial Imagery Using Text-to-Image Synthetic Data [66.49494950674402]
航空画像からの損傷評価のタスクのための大規模合成監視を作成する際に,新たなテキスト・画像生成モデルを活用する。
低リソース領域から何千ものポストディスアスター画像を生成するために、効率的でスケーラブルなパイプラインを構築しています。
我々は,xBDおよびSKAI画像のクロスジオグラフィー領域転送設定におけるフレームワークの強度を,単一ソースとマルチソースの両方で検証する。
論文 参考訳(メタデータ) (2024-05-22T16:07:05Z) - A Multi-constraint and Multi-objective Allocation Model for Emergency Rescue in IoT Environment [3.8572535126902676]
我々はMSGWFLM(Multi-Objective Shuffled Gray Froging Model)を開発した。
この多目的リソース割り当てモデルは、28の多様な課題に対して厳格にテストされている。
その効果は複雑で多サイクルの緊急救助シナリオで特に顕著である。
論文 参考訳(メタデータ) (2024-03-15T13:42:00Z) - CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - Deep Learning and Image Super-Resolution-Guided Beam and Power
Allocation for mmWave Networks [80.37827344656048]
我々は,ミリ波(mmWave)ネットワークのためのディープラーニング(DL)誘導ハイブリッドビームとパワーアロケーションアプローチを開発した。
教師付き学習と超解像技術の相乗効果を利用して、低オーバヘッドビームとパワーアロケーションを実現する。
論文 参考訳(メタデータ) (2023-05-08T05:40:54Z) - A Machine learning approach for rapid disaster response based on
multi-modal data. The case of housing & shelter needs [0.0]
災害に遭った人々の最も直接的なニーズの1つは避難所を見つけることである。
本稿では,マルチモーダルデータの融合と解析を目的とした機械学習ワークフローを提案する。
世界中の200以上の災害に対する19の特徴のデータベースに基づいて、意思決定レベルでの融合アプローチが用いられた。
論文 参考訳(メタデータ) (2021-07-29T18:22:34Z) - Learning from Multimodal and Multitemporal Earth Observation Data for
Building Damage Mapping [17.324397643429638]
我々は、損傷マッピングを構築するためのグローバルなマルチセンサとマルチテンポラルデータセットを開発した。
グローバルデータセットには、高解像度の光学画像と高解像度のマルチバンドSARデータが含まれている。
我々は、深層畳み込みニューラルネットワークアルゴリズムに基づいて、損傷建物の意味的セグメンテーションのための損傷マッピングフレームワークを定義した。
論文 参考訳(メタデータ) (2020-09-14T05:04:19Z) - Improving Emergency Response during Hurricane Season using Computer
Vision [0.06882042556551608]
我々は,コンピュータビジョン(CV),内陸洪水予知,被害評価,データ可視化といった最新の技術を組み込んだ危機対応・管理のためのフレームワークを開発した。
我々のコンピュータビジョンモデルは、自然災害の前後で、宇宙と空中の画像を分析して、関連する特徴を検出する。
画像から水、道路、建物、植生などの特徴を識別するモデル群を設計した。
論文 参考訳(メタデータ) (2020-08-17T15:42:02Z) - From Rain Generation to Rain Removal [67.71728610434698]
雨層を生成物としてパラメータ化した雨画像のためのベイズ生成モデルを構築した。
降雨画像の統計的分布を推定するために,変分推論の枠組みを用いる。
総合的な実験により,提案モデルが複雑な降雨分布を忠実に抽出できることが確認された。
論文 参考訳(メタデータ) (2020-08-08T18:56:51Z) - Deep Learning-based Aerial Image Segmentation with Open Data for
Disaster Impact Assessment [11.355723874379317]
セグメンテーションニューラルネットワークを利用したフレームワークは、災害後のシナリオで影響のある地域やアクセス可能な道路を特定するために提案されている。
航空画像セグメンテーションにおけるImageNetの事前訓練の有効性について検討した。
インドネシアのパウル島を襲った2018年の津波のデータから、提案された枠組みの有効性が示された。
論文 参考訳(メタデータ) (2020-06-10T00:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。