論文の概要: NIT COVID-19 at WNUT-2020 Task 2: Deep Learning Model RoBERTa for
Identify Informative COVID-19 English Tweets
- arxiv url: http://arxiv.org/abs/2011.05551v1
- Date: Wed, 11 Nov 2020 05:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 23:58:13.712698
- Title: NIT COVID-19 at WNUT-2020 Task 2: Deep Learning Model RoBERTa for
Identify Informative COVID-19 English Tweets
- Title(参考訳): NIT COVID-19 at WNUT-2020 Task 2: Deep Learning Model RoBERTa for Identify Informative COVID-19 English Tweets
- Authors: Jagadeesh M S, Alphonse P J A
- Abstract要約: 本稿では,WNUT-2020 Task2 において,NIT_COVID-19 チームによって提出された WNUT-2020 Task2 における COVID-19 英語のつぶやきを識別するためのモデルを提案する。
共用タスクWNUT 2020 Task2のモデルによる性能はF1スコアの89.14%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the model submitted by the NIT_COVID-19 team for
identified informative COVID-19 English tweets at WNUT-2020 Task2. This shared
task addresses the problem of automatically identifying whether an English
tweet related to informative (novel coronavirus) or not. These informative
tweets provide information about recovered, confirmed, suspected, and death
cases as well as the location or travel history of the cases. The proposed
approach includes pre-processing techniques and pre-trained RoBERTa with
suitable hyperparameters for English coronavirus tweet classification. The
performance achieved by the proposed model for shared task WNUT 2020 Task2 is
89.14% in the F1-score metric.
- Abstract(参考訳): 本稿では,nit_covid-19チームによるwnut-2020タスク2において,新型ウイルスの英語ツイートを識別するためのモデルを提案する。
この共有タスクは、インフォメーション(ノーベルウイルス)に関連する英語のつぶやきを自動的に識別する問題に対処する。
これらのインフォメーションツイートは、回復、確認、疑われ、死亡、および事件の位置または旅行履歴に関する情報を提供する。
提案手法は、英語の新型コロナウイルスのツイート分類に適したハイパーパラメータを持つ事前処理技術と事前訓練されたRoBERTaを含む。
共用タスクWNUT 2020 Task2のモデルによる性能はF1スコアの89.14%である。
関連論文リスト
- ThangDLU at #SMM4H 2024: Encoder-decoder models for classifying text data on social disorders in children and adolescents [49.00494558898933]
本稿では,#SMM4H (Social Media Mining for Health) 2024 Workshopのタスク3とタスク5への参加について述べる。
タスク3は、屋外環境が社会不安の症状に与える影響を議論するツイートを中心にした多クラス分類タスクである。
タスク5は、子供の医学的障害を報告しているツイートに焦点を当てたバイナリ分類タスクを含む。
BART-baseやT5-smallのような事前訓練されたエンコーダデコーダモデルからの転送学習を適用し、与えられたツイートの集合のラベルを同定した。
論文 参考訳(メタデータ) (2024-04-30T17:06:20Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Overview of Abusive and Threatening Language Detection in Urdu at FIRE
2021 [50.591267188664666]
我々は、ウルドゥー語に対する虐待と脅しの2つの共通タスクを提示する。
本研究では, (i) 乱用と非乱用というラベル付きツイートを含む手動注釈付きデータセットと, (ii) 脅威と非脅威の2つを提示する。
両方のサブタスクに対して、m-Bertベースのトランスモデルは最高の性能を示した。
論文 参考訳(メタデータ) (2022-07-14T07:38:13Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z) - Not-NUTs at W-NUT 2020 Task 2: A BERT-based System in Identifying
Informative COVID-19 English Tweets [0.0]
本稿では、英語のつぶやきを前提として、そのツイートがCOVID-19に関する情報的内容を持つかどうかを自動的に識別するモデルを提案する。
インフォメーションクラスにおけるF1スコアの約1%は、トップパフォーマンスチームによる結果にしか影響しない競争的な結果を達成しました。
論文 参考訳(メタデータ) (2020-09-14T15:49:16Z) - CIA_NITT at WNUT-2020 Task 2: Classification of COVID-19 Tweets Using
Pre-trained Language Models [0.0]
我々はこれをバイナリテキスト分類問題として扱い、事前訓練された言語モデルを用いて実験する。
我々はCT-BERTをベースとしたF1スコアを88.7%、CT-BERT、RoBERTa、SVMのアンサンブルであるF1スコアを88.52%とする。
論文 参考訳(メタデータ) (2020-09-12T12:59:54Z) - LynyrdSkynyrd at WNUT-2020 Task 2: Semi-Supervised Learning for
Identification of Informative COVID-19 English Tweets [4.361526134899725]
本稿では,WNUT-2020における情報発信型英語ツイートの識別に関する共有タスクについて述べる。
本システムは,従来の特徴量に基づく分類と,事前学習型言語モデルの最近の進歩を活かした,さまざまな機械学習手法のアンサンブルである。
我々の最高の性能モデルは、提供された検証セットのF1スコア0.9179、ブラインドテストセットの0.8805を達成する。
論文 参考訳(メタデータ) (2020-09-08T16:29:25Z) - UIT-HSE at WNUT-2020 Task 2: Exploiting CT-BERT for Identifying COVID-19
Information on the Twitter Social Network [2.7528170226206443]
本稿では,W-NUT 2020 Shared Task 2: Identification of Informative COVID-19 English Tweets。
我々は,様々な微調整技術を用いた COVID-Twitter-BERT (CT-BERT) に基づくトランスフォーマーモデルを用いた簡易かつ効果的なアプローチを提案する。
その結果、F1スコアの90.94%を達成し、このタスクのリーダーボードで3位となり、合計56チームが参加した。
論文 参考訳(メタデータ) (2020-09-07T08:20:31Z) - BANANA at WNUT-2020 Task 2: Identifying COVID-19 Information on Twitter
by Combining Deep Learning and Transfer Learning Models [0.0]
本稿では, WNUT-2020 Task 2: Identification of Informative COVID-19 English Tweetsについて述べる。
このタスクのデータセットには、人間によってラベル付けされた英語の1万のツイートが含まれている。
実験結果から, システム上でのインフォーマルラベルのF1は, テストセットで88.81%の精度で達成できたことが示唆された。
論文 参考訳(メタデータ) (2020-09-06T08:24:55Z) - CO-Search: COVID-19 Information Retrieval with Semantic Search, Question
Answering, and Abstractive Summarization [53.67205506042232]
CO-Searchは、新型コロナウイルスの文献上の複雑なクエリを処理するように設計された、レトリバーランサーセマンティック検索エンジンである。
ドメイン固有の比較的限られたデータセットを考慮し、文書の段落と引用の2部グラフを生成する。
TREC-COVID情報検索課題のデータに基づいて,本システムの評価を行った。
論文 参考訳(メタデータ) (2020-06-17T01:32:48Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。