論文の概要: A multi-modal approach towards mining social media data during natural
disasters -- a case study of Hurricane Irma
- arxiv url: http://arxiv.org/abs/2101.00480v1
- Date: Sat, 2 Jan 2021 17:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 08:50:41.381619
- Title: A multi-modal approach towards mining social media data during natural
disasters -- a case study of Hurricane Irma
- Title(参考訳): 自然災害時のソーシャルメディアデータのマイニングに対するマルチモーダルアプローチ-ハリケーンイルマの事例研究
- Authors: Somya D. Mohanty and Brown Biggers and Saed Sayedahmed and Nastaran
Pourebrahim and Evan B. Goldstein and Rick Bunch and Guangqing Chi and
Fereidoon Sadri and Tom P. McCoy and Arthur Cosby
- Abstract要約: 私たちは16,598のユーザーから54,383のTwitterメッセージ(784Kジオロケートメッセージ)を使用して、4つの独立したモデルを開発し、関連性のためにデータをフィルタリングします。
4つのモデルはすべて独立してテストされ、組み合わせてツイートを素早くフィルタリングおよび視覚化できます。
- 参考スコア(独自算出の注目度): 1.9259288012724252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Streaming social media provides a real-time glimpse of extreme weather
impacts. However, the volume of streaming data makes mining information a
challenge for emergency managers, policy makers, and disciplinary scientists.
Here we explore the effectiveness of data learned approaches to mine and filter
information from streaming social media data from Hurricane Irma's landfall in
Florida, USA. We use 54,383 Twitter messages (out of 784K geolocated messages)
from 16,598 users from Sept. 10 - 12, 2017 to develop 4 independent models to
filter data for relevance: 1) a geospatial model based on forcing conditions at
the place and time of each tweet, 2) an image classification model for tweets
that include images, 3) a user model to predict the reliability of the tweeter,
and 4) a text model to determine if the text is related to Hurricane Irma. All
four models are independently tested, and can be combined to quickly filter and
visualize tweets based on user-defined thresholds for each submodel. We
envision that this type of filtering and visualization routine can be useful as
a base model for data capture from noisy sources such as Twitter. The data can
then be subsequently used by policy makers, environmental managers, emergency
managers, and domain scientists interested in finding tweets with specific
attributes to use during different stages of the disaster (e.g., preparedness,
response, and recovery), or for detailed research.
- Abstract(参考訳): ソーシャルメディアのストリーミングは、極端な気象の影響をリアルタイムで見ることができる。
しかし、ストリーミングデータの量は、マイニング情報を緊急管理者、政策立案者、学際的な科学者にとって困難にしている。
本稿では,アメリカフロリダ州のハリケーン・イルマの地すべりから,ストリーミングソーシャルメディアデータから情報をマイニングし,フィルタリングするためのデータ学習の有効性について検討する。
我々は,2017年9月10日から12日までの16,598人のユーザから,54,383件のtwitterメッセージ(784kの位置情報メッセージのうち)を使用して,関連するデータをフィルタリングするための4つの独立したモデルを開発した。
4つのモデルはそれぞれ独立してテストされており、各サブモデルのユーザ定義しきい値に基づいてツイートを素早くフィルタリングして視覚化することができる。
このタイプのフィルタリングと可視化ルーチンは,Twitterなどのノイズの多いソースからのデータキャプチャーのベースモデルとして有用であると考えられる。
データはその後、政策立案者、環境管理者、緊急管理者、および災害の異なる段階(例えば、準備、応答、回復)で使用する特定の属性のツイートを見つけることに興味のあるドメイン科学者によって使用される。
関連論文リスト
- CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - Sarcasm Detection in a Disaster Context [103.93691731605163]
HurricaneSARCは,意図した皮肉に注釈を付けた15,000ツイートのデータセットである。
私たちの最高のモデルは、データセットで最大0.70F1を得ることができます。
論文 参考訳(メタデータ) (2023-08-16T05:58:12Z) - Using Twitter Data to Determine Hurricane Category: An Experiment [0.19573380763700707]
ソーシャルメディアの投稿には、主要な出来事に関する世論に関する豊富な情報が含まれている。
本稿では,特定地域のTwitterデータと,その地域のハリケーンレベルとの相関について検討する。
また,関連するTwitterデータを用いて,特定分野のハリケーンカテゴリーを予測する手法を提案する。
論文 参考訳(メタデータ) (2023-08-10T22:30:24Z) - ContCommRTD: A Distributed Content-based Misinformation-aware Community
Detection System for Real-Time Disaster Reporting [0.5156484100374059]
本稿では,危険関連事象とその進化について,ほぼリアルタイムに情報を提供する新しい分散システムを提案する。
我々の分散災害報告システムは、世界規模のツイート間の社会的関係を解析する。
フェイクニュースを検知する新たな深層学習モデルを提案する。
論文 参考訳(メタデータ) (2023-01-30T15:28:47Z) - Design and analysis of tweet-based election models for the 2021 Mexican
legislative election [55.41644538483948]
選挙日前の6ヶ月の間に、1500万件の選挙関連ツイートのデータセットを使用します。
地理的属性を持つデータを用いたモデルが従来のポーリング法よりも精度と精度で選挙結果を決定することがわかった。
論文 参考訳(メタデータ) (2023-01-02T12:40:05Z) - TweetDIS: A Large Twitter Dataset for Natural Disasters Built using Weak
Supervision [1.2400116527089997]
ソーシャルメディアはしばしば、自然災害時のコミュニケーションのライフラインとして利用される。
本研究では,弱い監督力を用いて銀標準データセットをキュレートする。
その有用性を検証するために、弱い教師付きデータに基づいて機械学習モデルを訓練し、3種類の自然災害を識別する。
論文 参考訳(メタデータ) (2022-07-11T15:30:09Z) - Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal
Misinformation [83.2079454464572]
本稿では,DARPAセマンティック・フォレスティクス(SemaFor)プログラムにおける画像テキスト不整合検出へのアプローチについて述べる。
Twitter-COMMsは大規模マルチモーダルデータセットで、884万のツイートが気候変動、新型コロナウイルス、軍用車両のトピックに関連する。
我々は、最先端のCLIPモデルに基づいて、自動生成されたランダムとハードのネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガ
論文 参考訳(メタデータ) (2021-12-16T03:37:20Z) - Detecting Damage Building Using Real-time Crowdsourced Images and
Transfer Learning [53.26496452886417]
本稿では,Twitterなどのソーシャルメディアプラットフォームから地震後の建物画像を自動的に抽出する手法を提案する。
トランスファーラーニングと6500枚の手動ラベル付き画像を用いて,現場に損傷のある建物を画像として認識する深層学習モデルを訓練した。
訓練されたモデルは、異なる場所で新たに取得した地震の画像でテストし、トルコのM7.0地震の後、Twitterのフィードでほぼリアルタイムで実行された。
論文 参考訳(メタデータ) (2021-10-12T06:31:54Z) - HumAID: Human-Annotated Disaster Incidents Data from Twitter with Deep
Learning Benchmarks [5.937482215664902]
ソーシャルメディアのコンテンツは、どんなアプリケーションでも直接使うにはうるさい。
効果的な消費と意思決定を促進するために、利用可能なコンテンツをフィルタリング、分類、および簡潔に要約することが重要です。
19の災害イベントで2400万ツイートのプールから抽出された77万ツイートの大規模なデータセットを紹介します。
論文 参考訳(メタデータ) (2021-04-07T12:29:36Z) - Sentiment Analysis on Social Media Content [0.0]
本研究の目的は,Twitterから収集した実データの感情分析を行うモデルを提案することである。
Twitterのデータは非常に非構造化されており、分析が困難である。
提案手法は,教師付き機械学習アルゴリズムと教師なし機械学習アルゴリズムの併用により,この分野の先行研究とは異なる。
論文 参考訳(メタデータ) (2020-07-04T17:03:30Z) - Detecting Perceived Emotions in Hurricane Disasters [62.760131661847986]
私たちはHurricaneEmoを紹介します。HurricaneEmoは、Harvey、Irma、Mariaの3つのハリケーンにまたがる15,000の英語ツイートの感情データセットです。
本稿では, きめ細かい感情を包括的に研究し, 粗い感情群を識別するための分類タスクを提案する。
論文 参考訳(メタデータ) (2020-04-29T16:17:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。