論文の概要: Floods Relevancy and Identification of Location from Twitter Posts using
NLP Techniques
- arxiv url: http://arxiv.org/abs/2301.00321v1
- Date: Sun, 1 Jan 2023 01:36:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:42:47.861918
- Title: Floods Relevancy and Identification of Location from Twitter Posts using
NLP Techniques
- Title(参考訳): NLP手法を用いたTwitter投稿からの洪水関連性と位置同定
- Authors: Muhammad Suleman, Muhammad Asif, Tayyab Zamir, Ayaz Mehmood, Jebran
Khan, Nasir Ahmad, Kashif Ahmad
- Abstract要約: 本稿では,災害MMにおけるMediaEval 2022タスクの解決策について述べる。
このタスクは、 (i) Twitter Posts (RCTP) の関連分類と (ii) Twitter Texts (LETT) の位置情報抽出という2つのサブタスクで構成されている。
RCTPでは,BERT,RoBERTa,Distil BERT,ALBERTの4つの異なる解を提案し,それぞれ0.7934,0.7970,0.7613,0.7924のF1スコアを得た。
LETTではBERT、RoBERTa、Distil BERTの3モデルを使用しました。
- 参考スコア(独自算出の注目度): 5.244770723922308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our solutions for the MediaEval 2022 task on DisasterMM.
The task is composed of two subtasks, namely (i) Relevance Classification of
Twitter Posts (RCTP), and (ii) Location Extraction from Twitter Texts (LETT).
The RCTP subtask aims at differentiating flood-related and non-relevant social
posts while LETT is a Named Entity Recognition (NER) task and aims at the
extraction of location information from the text. For RCTP, we proposed four
different solutions based on BERT, RoBERTa, Distil BERT, and ALBERT obtaining
an F1-score of 0.7934, 0.7970, 0.7613, and 0.7924, respectively. For LETT, we
used three models namely BERT, RoBERTa, and Distil BERTA obtaining an F1-score
of 0.6256, 0.6744, and 0.6723, respectively.
- Abstract(参考訳): 本稿では,災害MMにおけるMediaEval 2022タスクの解決策について述べる。
タスクは2つのサブタスクで構成される。
(i)Twitter Posts(RCTP)の関連分類
(ii) Twitter Texts (LETT) からの位置情報抽出
RCTPサブタスクは洪水に関連するソーシャルポストと非関連ソーシャルポストを区別することを目的としており、LETTは名前付きエンティティ認識(NER)タスクであり、テキストから位置情報を抽出することを目的としている。
RCTPでは,BERT,RoBERTa,Distil BERT,ALBERTの4つの異なる解を提案し,それぞれ0.7934,0.7970,0.7613,0.7924のF1スコアを得た。
LETTではBERT,RoBERTa,Distil BERTAの3モデルを用いてそれぞれ0.6256,0.6744,0.6723のF1スコアを得た。
関連論文リスト
- Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Multi-Narrative Semantic Overlap Task: Evaluation and Benchmark [4.303515688770516]
本稿では,MNSO(Multi-Narrative Semantic Overlap)と呼ばれる重要なNLPタスクを紹介する。
ウェブから2,925の物語のペアをクロールして1つを作り、それから、人間のアノテータをアクティベートすることで、411の異なる地味のセマンティックオーバーラップを手作業で作成するという面倒なプロセスを経ました。
SEM-F1(semantic F1)と呼ばれる新しい高精度リコール方式の評価基準を定式化する。
実験結果から,提案したSEM-F1測定値が,ROUGE測定値よりも高い相関性を示した。
論文 参考訳(メタデータ) (2022-01-14T03:56:41Z) - An Ensemble Approach to Acronym Extraction using Transformers [7.88595796865485]
頭字語は、文中の句の初期成分を用いて構築された句の省略単位である。
本稿では,アクロニム抽出の課題に対するアンサンブルアプローチについて論じる。
論文 参考訳(メタデータ) (2022-01-09T14:49:46Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - MobIE: A German Dataset for Named Entity Recognition, Entity Linking and
Relation Extraction in the Mobility Domain [76.21775236904185]
データセットは3,232のソーシャルメディアテキストと91Kトークンによるトラフィックレポートで構成され、20.5Kアノテーション付きエンティティを含んでいる。
データセットのサブセットには,7つのモビリティ関連,n-ary関係型がアノテートされている。
私たちの知る限りでは、NER、EL、REのアノテーションを組み合わせた最初のドイツ語データセットです。
論文 参考訳(メタデータ) (2021-08-16T08:21:50Z) - Template-Based Named Entity Recognition Using BART [20.330819636161074]
シーケンス・ツー・シーケンス・フレームワークにおいて,NERを言語モデルランキング問題として扱うテンプレートベースのNER法を提案する。
提案手法は,CoNLL03において92.55%のF1スコアを達成し,微調整したBERT10.88%,15.34%,11.73%のF1スコアをMIT Movie,MIT Restaurant,ATISで達成した。
論文 参考訳(メタデータ) (2021-06-03T11:29:43Z) - Structured Prediction as Translation between Augmented Natural Languages [109.50236248762877]
本研究では,構造化予測言語の課題を解決するために,新しいフレームワークであるTANL(Translation between Augmented Natural Languages)を提案する。
タスク固有の差別を訓練することで問題に取り組む代わりに、拡張自然言語間の翻訳タスクとして位置づける。
提案手法は, タスク固有のモデルに適合するか, 性能に優れ, 特に, 共同エンティティと関係抽出に関する新たな最先端結果が得られる。
論文 参考訳(メタデータ) (2021-01-14T18:32:21Z) - LayoutLMv2: Multi-modal Pre-training for Visually-Rich Document
Understanding [49.941806975280045]
テキストとレイアウトの事前トレーニングは、視覚的に豊富な文書理解タスクで有効であることが証明されています。
テキスト,レイアウト,イメージをマルチモーダルフレームワークで事前学習することで,テキスト-bfLMv2を提示する。
論文 参考訳(メタデータ) (2020-12-29T13:01:52Z) - Fake News Detection in Social Media using Graph Neural Networks and NLP
Techniques: A COVID-19 Use-case [2.4937400423177767]
本稿では,MediaEval 2020タスク,すなわちFakeNews: Corona Virusと5G Conspiracy Multimedia Twitter-Data-Based Analysisのソリューションについて述べる。
論文 参考訳(メタデータ) (2020-11-30T16:41:04Z) - QMUL-SDS @ SardiStance: Leveraging Network Interactions to Boost
Performance on Stance Detection using Knowledge Graphs [16.39344929765961]
本稿では,タスクAとタスクBのアーキテクチャについて述べる。
タスクBでは6位(f-avg 0.709)です。
最適実験により, (f-avg 0.573) から (f-avg 0.733) まで性能が向上した。
論文 参考訳(メタデータ) (2020-11-02T18:17:51Z) - N-LTP: An Open-source Neural Language Technology Platform for Chinese [68.58732970171747]
textttN-は、中国の6つの基本的なNLPタスクをサポートする、オープンソースのニューラルネットワークテクノロジプラットフォームである。
textttN-は、中国のタスク間で共有知識をキャプチャする利点がある共有事前学習モデルを使用することで、マルチタスクフレームワークを採用する。
論文 参考訳(メタデータ) (2020-09-24T11:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。