論文の概要: I-AID: Identifying Actionable Information from Disaster-related Tweets
- arxiv url: http://arxiv.org/abs/2008.13544v2
- Date: Wed, 19 May 2021 02:32:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 23:13:01.392445
- Title: I-AID: Identifying Actionable Information from Disaster-related Tweets
- Title(参考訳): I-AID:災害関連ツイートから実行可能な情報を識別する
- Authors: Hamada M. Zahera, Rricha Jalota, Mohamed A. Sherif, Axel N. Ngomo
- Abstract要約: ソーシャルメディアは、被災者、寄付、支援要請に関する貴重なデータを提供することによって、災害管理において重要な役割を担っている。
ツイートを自動的にマルチラベル情報タイプに分類するマルチモデルアプローチであるI-AIDを提案する。
以上の結果から,I-AIDはTREC-ISデータセットおよびCOVID-19 Tweetsにおいて,平均F1得点の6%,+4%において最先端のアプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Social media plays a significant role in disaster management by providing
valuable data about affected people, donations and help requests. Recent
studies highlight the need to filter information on social media into
fine-grained content labels. However, identifying useful information from
massive amounts of social media posts during a crisis is a challenging task. In
this paper, we propose I-AID, a multimodel approach to automatically categorize
tweets into multi-label information types and filter critical information from
the enormous volume of social media data. I-AID incorporates three main
components: i) a BERT-based encoder to capture the semantics of a tweet and
represent as a low-dimensional vector, ii) a graph attention network (GAT) to
apprehend correlations between tweets' words/entities and the corresponding
information types, and iii) a Relation Network as a learnable distance metric
to compute the similarity between tweets and their corresponding information
types in a supervised way. We conducted several experiments on two real
publicly-available datasets. Our results indicate that I-AID outperforms
state-of-the-art approaches in terms of weighted average F1 score by +6% and
+4% on the TREC-IS dataset and COVID-19 Tweets, respectively.
- Abstract(参考訳): 災害管理においてソーシャルメディアは、影響を受けた人々、寄付、支援要請に関する貴重なデータを提供することで重要な役割を担っている。
最近の研究では、ソーシャルメディアの情報をきめ細かいコンテンツラベルにフィルターする必要性が強調されている。
しかし、危機時の大量のソーシャルメディア投稿から有用な情報を識別することは難しい課題である。
本稿では,ツイートを自動的にマルチラベル情報タイプに分類し,膨大なソーシャルメディアデータから重要な情報をフィルタリングするマルチモデル手法であるI-AIDを提案する。
I-AIDには3つの主要コンポーネントが含まれている。
一 つぶやきの意味を捉え、低次元ベクトルとして表すBERTベースのエンコーダ
二 ツイートの言葉・内容と対応する情報型との相関関係を理解するグラフ注意ネットワーク(gat)
三 ツイートと対応する情報の種類との類似性を教師付き方法で計算する学習可能な距離計量としての関係ネットワーク
実際に利用可能な2つのデータセットについていくつかの実験を行った。
以上の結果から,I-AIDはTREC-ISデータセットおよびCOVID-19 Tweetsにおいて,平均F1得点の6%,+4%において最先端のアプローチよりも優れていた。
関連論文リスト
- CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Utilizing Social Media Attributes for Enhanced Keyword Detection: An
IDF-LDA Model Applied to Sina Weibo [0.0]
ソーシャルメディアにおけるキーワード検出問題に対処する新しい手法を提案する。
我々のモデルは、逆文書頻度(IDF)と遅延ディリクレ割当(LDA)モデルを組み合わせて、ソーシャルメディアデータの異なる属性に対処する。
論文 参考訳(メタデータ) (2023-05-30T08:35:39Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on
Social Media [53.51665032295087]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - TBCOV: Two Billion Multilingual COVID-19 Tweets with Sentiment, Entity,
Geo, and Gender Labels [5.267993069044648]
この研究は、新型コロナウイルス(COVID-19)のパンデミックに関連する20億以上の多言語ツイートを1年以上にわたって収集した大規模なTwitterデータセットTBCOVを提示する。
いくつかの最先端のディープラーニングモデルは、感情ラベル、名前付きエンティティ、人物の言及、組織、場所、ユーザータイプ、性別情報など、重要な属性でデータを強化するために使用される。
我々の感情と傾向分析は興味深い洞察を示し、TBCOVが重要なトピックを幅広くカバーしていることを確認する。
論文 参考訳(メタデータ) (2021-10-04T06:17:12Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - HumAID: Human-Annotated Disaster Incidents Data from Twitter with Deep
Learning Benchmarks [5.937482215664902]
ソーシャルメディアのコンテンツは、どんなアプリケーションでも直接使うにはうるさい。
効果的な消費と意思決定を促進するために、利用可能なコンテンツをフィルタリング、分類、および簡潔に要約することが重要です。
19の災害イベントで2400万ツイートのプールから抽出された77万ツイートの大規模なデータセットを紹介します。
論文 参考訳(メタデータ) (2021-04-07T12:29:36Z) - Named Entity Recognition for Social Media Texts with Semantic
Augmentation [70.44281443975554]
名前付きエンティティ認識のための既存のアプローチは、短いテキストと非公式テキストで実行される場合、データ空間の問題に悩まされる。
そこで我々は,NER によるソーシャルメディアテキストに対するニューラルベースアプローチを提案し,ローカルテキストと拡張セマンティクスの両方を考慮に入れた。
論文 参考訳(メタデータ) (2020-10-29T10:06:46Z) - A multi-layer approach to disinformation detection on Twitter [4.663548775064491]
我々は,Twitter拡散ネットワークの多層表現を用い,各層に対してグローバルネットワーク機能群を計算した。
米国とイタリアでそれぞれ共有されたニュースの拡散カスケードに対応する2つの大規模データセットによる実験結果から、単純なロジスティック回帰モデルにより、偽情報と主流ネットワークを高精度に分類できることが示されている。
当社のネットワークベースのアプローチは,ソーシャルメディアに拡散する誤解を招く有害な情報を検出するシステム開発への道を開く有用な洞察を提供すると考えている。
論文 参考訳(メタデータ) (2020-02-28T09:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。