論文の概要: Fighting the COVID-19 Infodemic with a Holistic BERT Ensemble
- arxiv url: http://arxiv.org/abs/2104.05745v1
- Date: Mon, 12 Apr 2021 18:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:36:13.831592
- Title: Fighting the COVID-19 Infodemic with a Holistic BERT Ensemble
- Title(参考訳): 総括的なbertアンサンブルでcovid-19インフォデミックと戦う
- Authors: Giorgos Tziafas, Konstantinos Kogkalidis, Tommaso Caselli
- Abstract要約: TOKOFOUは、6つの異なるトランスベースのプリトレーニングエンコーダに基づく誤情報検出タスクのアンサンブルモデルです。
各タスクの質問に対して各モデルを微調整し、多数決のアプローチを用いて予測スコアを集計する。
- 参考スコア(独自算出の注目度): 2.9987410512294375
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper describes the TOKOFOU system, an ensemble model for misinformation
detection tasks based on six different transformer-based pre-trained encoders,
implemented in the context of the COVID-19 Infodemic Shared Task for English.
We fine tune each model on each of the task's questions and aggregate their
prediction scores using a majority voting approach. TOKOFOU obtains an overall
F1 score of 89.7%, ranking first.
- Abstract(参考訳): 本稿では,6つの変圧器を用いた事前学習エンコーダに基づく誤情報検出タスクのアンサンブルモデルであるTOKOFOUシステムについて述べる。
各タスクの質問に対して各モデルを微調整し、多数決のアプローチを用いて予測スコアを集計する。
TOKOFOUはF1総合得点89.7%を獲得し、ランキング1位となった。
関連論文リスト
- Mavericks at ArAIEval Shared Task: Towards a Safer Digital Space --
Transformer Ensemble Models Tackling Deception and Persuasion [0.0]
本稿では,各課題のタスク1-Aとタスク2-Aのアプローチについて述べる。
タスクは、与えられたバイナリ分類問題に対して、ツイートとニュース記事のマルチジャンルスニペットを使用する。
タスク1-A(8位)では0.742、タスク2-A(7位)では0.901のマイクロF1スコアを達成した。
論文 参考訳(メタデータ) (2023-11-30T17:26:57Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task [80.22825549235556]
我々は、UniTEという品質評価共有タスクにおいて、文レベルのMQMベンチマークを提出する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
その結果,我々のモデルは多言語・英語・ロシア語設定では第1位,英語・ドイツ語・中国語設定では第2位に達した。
論文 参考訳(メタデータ) (2022-10-18T08:55:27Z) - COLO: A Contrastive Learning based Re-ranking Framework for One-Stage
Summarization [84.70895015194188]
コントラスト学習に基づく一段階要約フレームワークであるCOLOを提案する。
COLOはCNN/DailyMailベンチマークの1段階システムの抽出と抽象化結果を44.58と46.33ROUGE-1スコアに引き上げた。
論文 参考訳(メタデータ) (2022-09-29T06:11:21Z) - CAiRE in DialDoc21: Data Augmentation for Information-Seeking Dialogue
System [55.43871578056878]
DialDoc21コンペティションでは,サブタスク1で74.95 F1スコア,60.74 Exact Matchスコア,サブタスク2で37.72 SacreBLEUスコアを達成した。
論文 参考訳(メタデータ) (2021-06-07T11:40:55Z) - BERT based Transformers lead the way in Extraction of Health Information
from Social Media [0.0]
英語ツイートにおける有害薬物効果(ade)の分類・抽出・正規化(task-1)と症状を含むcovid-19ツイートの分類(task-6)の2つの課題に参加した。
サブタスク-1(a)は61%のF1スコアで1位にランクインしました。
サブタスク-1(b)では50%のF1スコアを獲得し、すべての提出物の平均スコアに対して最大で+8%のF1を向上しました。
BERTweetモデルはSMM4H 2021 Task-6で94%のF1スコアを達成しました。
論文 参考訳(メタデータ) (2021-04-15T10:50:21Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z) - CIA_NITT at WNUT-2020 Task 2: Classification of COVID-19 Tweets Using
Pre-trained Language Models [0.0]
我々はこれをバイナリテキスト分類問題として扱い、事前訓練された言語モデルを用いて実験する。
我々はCT-BERTをベースとしたF1スコアを88.7%、CT-BERT、RoBERTa、SVMのアンサンブルであるF1スコアを88.52%とする。
論文 参考訳(メタデータ) (2020-09-12T12:59:54Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - Deep Learning Brasil -- NLP at SemEval-2020 Task 9: Overview of
Sentiment Analysis of Code-Mixed Tweets [0.2294014185517203]
本稿では、コード混在のつぶやき(ヒンズー・イングリッシュ)における感情を予測する手法について述べる。
CodaLabのVerissimo.manoelというチームが、4つのモデルのアンサンブルに基づいたアプローチを開発しました。
最終分類アルゴリズムは、これらの4つのモデルから得られる全てのソフトマックス値のいくつかの予測の集合である。
論文 参考訳(メタデータ) (2020-07-28T16:42:41Z) - A Simple Language Model for Task-Oriented Dialogue [61.84084939472287]
SimpleTODはタスク指向対話に対する単純なアプローチであり、すべてのサブタスクのリキャストで訓練された単一因果言語モデルを単一シーケンス予測問題として利用する。
これによりSimpleTODは、事前訓練されたオープンドメイン、GPT-2のような因果言語モデルからのトランスファー学習を完全に活用できる。
論文 参考訳(メタデータ) (2020-05-02T11:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。