論文の概要: Floods Relevancy and Identification of Location from Twitter Posts using
NLP Techniques
- arxiv url: http://arxiv.org/abs/2301.00321v1
- Date: Sun, 1 Jan 2023 01:36:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:42:47.861918
- Title: Floods Relevancy and Identification of Location from Twitter Posts using
NLP Techniques
- Title(参考訳): NLP手法を用いたTwitter投稿からの洪水関連性と位置同定
- Authors: Muhammad Suleman, Muhammad Asif, Tayyab Zamir, Ayaz Mehmood, Jebran
Khan, Nasir Ahmad, Kashif Ahmad
- Abstract要約: 本稿では,災害MMにおけるMediaEval 2022タスクの解決策について述べる。
このタスクは、 (i) Twitter Posts (RCTP) の関連分類と (ii) Twitter Texts (LETT) の位置情報抽出という2つのサブタスクで構成されている。
RCTPでは,BERT,RoBERTa,Distil BERT,ALBERTの4つの異なる解を提案し,それぞれ0.7934,0.7970,0.7613,0.7924のF1スコアを得た。
LETTではBERT、RoBERTa、Distil BERTの3モデルを使用しました。
- 参考スコア(独自算出の注目度): 5.244770723922308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our solutions for the MediaEval 2022 task on DisasterMM.
The task is composed of two subtasks, namely (i) Relevance Classification of
Twitter Posts (RCTP), and (ii) Location Extraction from Twitter Texts (LETT).
The RCTP subtask aims at differentiating flood-related and non-relevant social
posts while LETT is a Named Entity Recognition (NER) task and aims at the
extraction of location information from the text. For RCTP, we proposed four
different solutions based on BERT, RoBERTa, Distil BERT, and ALBERT obtaining
an F1-score of 0.7934, 0.7970, 0.7613, and 0.7924, respectively. For LETT, we
used three models namely BERT, RoBERTa, and Distil BERTA obtaining an F1-score
of 0.6256, 0.6744, and 0.6723, respectively.
- Abstract(参考訳): 本稿では,災害MMにおけるMediaEval 2022タスクの解決策について述べる。
タスクは2つのサブタスクで構成される。
(i)Twitter Posts(RCTP)の関連分類
(ii) Twitter Texts (LETT) からの位置情報抽出
RCTPサブタスクは洪水に関連するソーシャルポストと非関連ソーシャルポストを区別することを目的としており、LETTは名前付きエンティティ認識(NER)タスクであり、テキストから位置情報を抽出することを目的としている。
RCTPでは,BERT,RoBERTa,Distil BERT,ALBERTの4つの異なる解を提案し,それぞれ0.7934,0.7970,0.7613,0.7924のF1スコアを得た。
LETTではBERT,RoBERTa,Distil BERTAの3モデルを用いてそれぞれ0.6256,0.6744,0.6723のF1スコアを得た。
関連論文リスト
- A Novel Two-Step Fine-Tuning Pipeline for Cold-Start Active Learning in Text Classification Tasks [7.72751543977484]
本研究は, 寒冷開始シナリオにおけるアクティブラーニング(AL)タスクにおけるBERTベースのコンテキスト埋め込みの有効性について検討する。
私たちの主な貢献は、より堅牢な微調整パイプラインであるDoTCALの提案です。
本評価では,Bag of Words (BoW), Latent Semantic Indexing (LSI), FastTextなど,BERTベースの埋め込みと他の一般的なテキスト表現パラダイムとの対比を行った。
論文 参考訳(メタデータ) (2024-07-24T13:50:21Z) - A Named Entity Recognition and Topic Modeling-based Solution for Locating and Better Assessment of Natural Disasters in Social Media [1.9739821076317217]
ソーシャルメディアのコンテンツは、災害情報学に非常に効果的であることが証明されている。
しかし、データの構造が不整なため、ソーシャルメディアコンテンツにおける災害分析にいくつかの課題が伴う。
災害情報学におけるソーシャルメディアコンテンツの可能性を完全に探求するためには、関連コンテンツへのアクセスと適切な位置情報情報が非常に重要である。
論文 参考訳(メタデータ) (2024-05-01T23:19:49Z) - Cross-lingual Contextualized Phrase Retrieval [63.80154430930898]
そこで本研究では,言語間関係の単語検索を多義的に行うタスクの定式化を提案する。
我々は、コントラスト学習を用いて、言語間コンテクスト対応句検索(CCPR)を訓練する。
フレーズ検索タスクでは、CCPRはベースラインをかなり上回り、少なくとも13ポイント高いトップ1の精度を達成する。
論文 参考訳(メタデータ) (2024-03-25T14:46:51Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - An Ensemble Approach to Acronym Extraction using Transformers [7.88595796865485]
頭字語は、文中の句の初期成分を用いて構築された句の省略単位である。
本稿では,アクロニム抽出の課題に対するアンサンブルアプローチについて論じる。
論文 参考訳(メタデータ) (2022-01-09T14:49:46Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - Structured Prediction as Translation between Augmented Natural Languages [109.50236248762877]
本研究では,構造化予測言語の課題を解決するために,新しいフレームワークであるTANL(Translation between Augmented Natural Languages)を提案する。
タスク固有の差別を訓練することで問題に取り組む代わりに、拡張自然言語間の翻訳タスクとして位置づける。
提案手法は, タスク固有のモデルに適合するか, 性能に優れ, 特に, 共同エンティティと関係抽出に関する新たな最先端結果が得られる。
論文 参考訳(メタデータ) (2021-01-14T18:32:21Z) - LayoutLMv2: Multi-modal Pre-training for Visually-Rich Document
Understanding [49.941806975280045]
テキストとレイアウトの事前トレーニングは、視覚的に豊富な文書理解タスクで有効であることが証明されています。
テキスト,レイアウト,イメージをマルチモーダルフレームワークで事前学習することで,テキスト-bfLMv2を提示する。
論文 参考訳(メタデータ) (2020-12-29T13:01:52Z) - Fake News Detection in Social Media using Graph Neural Networks and NLP
Techniques: A COVID-19 Use-case [2.4937400423177767]
本稿では,MediaEval 2020タスク,すなわちFakeNews: Corona Virusと5G Conspiracy Multimedia Twitter-Data-Based Analysisのソリューションについて述べる。
論文 参考訳(メタデータ) (2020-11-30T16:41:04Z) - QMUL-SDS @ SardiStance: Leveraging Network Interactions to Boost
Performance on Stance Detection using Knowledge Graphs [16.39344929765961]
本稿では,タスクAとタスクBのアーキテクチャについて述べる。
タスクBでは6位(f-avg 0.709)です。
最適実験により, (f-avg 0.573) から (f-avg 0.733) まで性能が向上した。
論文 参考訳(メタデータ) (2020-11-02T18:17:51Z) - N-LTP: An Open-source Neural Language Technology Platform for Chinese [68.58732970171747]
textttN-は、中国の6つの基本的なNLPタスクをサポートする、オープンソースのニューラルネットワークテクノロジプラットフォームである。
textttN-は、中国のタスク間で共有知識をキャプチャする利点がある共有事前学習モデルを使用することで、マルチタスクフレームワークを採用する。
論文 参考訳(メタデータ) (2020-09-24T11:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。