論文の概要: CIA_NITT at WNUT-2020 Task 2: Classification of COVID-19 Tweets Using
Pre-trained Language Models
- arxiv url: http://arxiv.org/abs/2009.05782v1
- Date: Sat, 12 Sep 2020 12:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 08:09:25.996141
- Title: CIA_NITT at WNUT-2020 Task 2: Classification of COVID-19 Tweets Using
Pre-trained Language Models
- Title(参考訳): CIA_NITT at WNUT-2020 Task 2: Classification of COVID-19 Tweets using Pre-trained Language Models (英語)
- Authors: Yandrapati Prakash Babu and Rajagopal Eswari
- Abstract要約: 我々はこれをバイナリテキスト分類問題として扱い、事前訓練された言語モデルを用いて実験する。
我々はCT-BERTをベースとしたF1スコアを88.7%、CT-BERT、RoBERTa、SVMのアンサンブルであるF1スコアを88.52%とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents our models for WNUT 2020 shared task2. The shared task2
involves identification of COVID-19 related informative tweets. We treat this
as binary text classification problem and experiment with pre-trained language
models. Our first model which is based on CT-BERT achieves F1-score of 88.7%
and second model which is an ensemble of CT-BERT, RoBERTa and SVM achieves
F1-score of 88.52%.
- Abstract(参考訳): 本稿では,WNUT 2020共有タスク2のモデルについて述べる。
共有タスク2は、covid-19関連のインフォメーションツイートの識別を含む。
我々はこれをバイナリテキスト分類問題として扱い,事前学習した言語モデルを用いて実験を行う。
CT-BERTをベースとした第1モデルはF1スコア88.7%、第2モデルはCT-BERT、RoBERTa、SVMのアンサンブルであるF1スコア88.52%を達成する。
関連論文リスト
- Text Augmentations with R-drop for Classification of Tweets Self
Reporting Covid-19 [28.91836510067532]
本稿では,ソーシャル・メディア・マイニング・フォー・ヘルス2023共有タスクのためのモデルを提案する。
我々のアプローチは、多種多様なテキスト拡張を取り入れた分類モデルである。
テストセットのF1スコアは0.877である。
論文 参考訳(メタデータ) (2023-11-06T14:18:16Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - Is BERT a Cross-Disciplinary Knowledge Learner? A Surprising Finding of
Pre-trained Models' Transferability [74.11825654535895]
BERTなどのテキストデータに予め訓練されたモデルのパワーを、一般的なトークンシーケンス分類アプリケーションに転送できるかどうかを検討します。
テキスト以外のデータでも、テキストに事前学習されたモデルはランダムなモデルよりも高速に収束する。
論文 参考訳(メタデータ) (2021-03-12T09:19:14Z) - KgPLM: Knowledge-guided Language Model Pre-training via Generative and
Discriminative Learning [45.067001062192844]
事実の知識の完成と検証によって導かれる言語モデル事前トレーニングフレームワークを提示する。
ゼロショットクローゼ型質問応答タスクのセットであるLAMAの実験結果は、私たちのモデルが従来の訓練済み言語モデルよりも豊富な事実知識を含んでいることを示しています。
論文 参考訳(メタデータ) (2020-12-07T09:39:25Z) - NIT COVID-19 at WNUT-2020 Task 2: Deep Learning Model RoBERTa for
Identify Informative COVID-19 English Tweets [0.0]
本稿では,WNUT-2020 Task2 において,NIT_COVID-19 チームによって提出された WNUT-2020 Task2 における COVID-19 英語のつぶやきを識別するためのモデルを提案する。
共用タスクWNUT 2020 Task2のモデルによる性能はF1スコアの89.14%である。
論文 参考訳(メタデータ) (2020-11-11T05:20:39Z) - NLP-CIC @ PRELEARN: Mastering prerequisites relations, from handcrafted
features to embeddings [68.97335984455059]
我々は,EVALITA 2020において,前提条件付き関係学習タスク(PRELEARN)のシステムと成果を報告した。
このタスクは、概念のペアが前提条件を持つかどうかを分類することを目的としている。
F1スコアが0.887点、0.690点の2つのシナリオでそれぞれ1位にランクインした。
論文 参考訳(メタデータ) (2020-11-07T12:13:09Z) - NutCracker at WNUT-2020 Task 2: Robustly Identifying Informative
COVID-19 Tweets using Ensembling and Adversarial Training [6.85316573653194]
我々は、新型コロナウイルスのツイートを識別するために、COVID-Twitter-BERTとRoBERTaモデルを実験した。
COVID-Twitter-BERTとRoBERTaのアンサンブルは、WNUT-2020 Task 2のテストデータから0.9096のF1スコアを取得し、リーダーボードで1位となった。
論文 参考訳(メタデータ) (2020-10-09T02:46:51Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z) - LynyrdSkynyrd at WNUT-2020 Task 2: Semi-Supervised Learning for
Identification of Informative COVID-19 English Tweets [4.361526134899725]
本稿では,WNUT-2020における情報発信型英語ツイートの識別に関する共有タスクについて述べる。
本システムは,従来の特徴量に基づく分類と,事前学習型言語モデルの最近の進歩を活かした,さまざまな機械学習手法のアンサンブルである。
我々の最高の性能モデルは、提供された検証セットのF1スコア0.9179、ブラインドテストセットの0.8805を達成する。
論文 参考訳(メタデータ) (2020-09-08T16:29:25Z) - DeBERTa: Decoding-enhanced BERT with Disentangled Attention [119.77305080520718]
2つの新しい手法を用いてBERTモデルとRoBERTaモデルを改善する新しいモデルアーキテクチャDeBERTaを提案する。
これらの手法により,モデル事前学習の効率化と,自然言語理解(NLU)と自然言語生成(NLG)の両方の性能向上が期待できる。
論文 参考訳(メタデータ) (2020-06-05T19:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。