論文の概要: Exploring Text-transformers in AAAI 2021 Shared Task: COVID-19 Fake News
Detection in English
- arxiv url: http://arxiv.org/abs/2101.02359v1
- Date: Thu, 7 Jan 2021 04:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 21:22:38.186768
- Title: Exploring Text-transformers in AAAI 2021 Shared Task: COVID-19 Fake News
Detection in English
- Title(参考訳): aaai 2021におけるテキスト変換の課題 - 英語による偽ニュース検出
- Authors: Xiangyang Li, Yu Xia, Xiang Long, Zheng Li, Sujian Li
- Abstract要約: 本稿では,AAAI 2021の共用タスクである「Fake News Detection」を英語で記述する。
BERT、Roberta、Ernieなど、様々な学習済み言語モデルのアンサンブル法を提案しました。
また、正しく分類されていないサンプルの広範な分析も行います。
- 参考スコア(独自算出の注目度): 30.61407811064534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we describe our system for the AAAI 2021 shared task of
COVID-19 Fake News Detection in English, where we achieved the 3rd position
with the weighted F1 score of 0.9859 on the test set. Specifically, we proposed
an ensemble method of different pre-trained language models such as BERT,
Roberta, Ernie, etc. with various training strategies including
warm-up,learning rate schedule and k-fold cross-validation. We also conduct an
extensive analysis of the samples that are not correctly classified. The code
is available
at:https://github.com/archersama/3rd-solution-COVID19-Fake-News-Detection-in-English.
- Abstract(参考訳): 本稿では,aaai 2021における偽ニュース検出のタスクを英語で共有し,f1の重み付けスコア0.9859で3位に到達した。
具体的には、bert, roberta, ernie など、さまざまな事前学習された言語モデルのアンサンブル法を提案する。
ウォームアップ、ラーニングレートスケジュール、k-foldクロスバリデーションなど、さまざまなトレーニング戦略で。
また, 適切に分類されていない試料を広範囲に分析した。
コードは以下の通り。https://github.com/archersama/3rd-solution-COVID19-Fake-News-Detection-in- English。
関連論文リスト
- Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - Strategies for improving low resource speech to text translation relying
on pre-trained ASR models [59.90106959717875]
本稿では,テキスト翻訳(ST)における低音源音声の性能向上のための技術と知見について述べる。
本研究は,英語とポルトガル語,タマシェク語とフランス語の2つの言語対について,シミュレーションおよび実低資源設定について実験を行った。
論文 参考訳(メタデータ) (2023-05-31T21:58:07Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - LaDiff ULMFiT: A Layer Differentiated training approach for ULMFiT [0.0]
事前に訓練したUMMFiT arXiv:1801.06146モデルを訓練するためのレイヤ別トレーニング手順を提案する。
特別なトークンを使用してツイートの特定の部分をアノテートし、言語理解を改善し、モデルに関する洞察を得ました。
提案手法は、サブタスク「COVID19 Fake News Detection in English」で164人中61位にランクインした。
論文 参考訳(メタデータ) (2021-01-13T09:52:04Z) - Constraint 2021: Machine Learning Models for COVID-19 Fake News
Detection Shared Task [0.7614628596146599]
私たちは、COVID-19関連のソーシャルメディア投稿を偽物または本物として分類するという課題に対処します。
本システムでは,従来の機械学習アルゴリズムといくつかの言語的特徴を併用することで,この問題に対処する。
テストデータの重み付き平均F1スコアが95.19%となる線形SVMをベースとした最良の性能システムを見出した。
論文 参考訳(メタデータ) (2021-01-11T05:57:32Z) - Facebook AI's WMT20 News Translation Task Submission [69.92594751788403]
本稿では、Facebook AIによるWMT20共有ニュース翻訳タスクの提出について述べる。
資源設定の低さに着目し,タミル語-英語とイヌクティトゥット語-英語の2つの言語ペアに参加する。
我々は、利用可能なデータをすべて活用し、ターゲットのニュースドメインにシステムを適用するという、2つの主要な戦略を用いて、低リソース問題にアプローチする。
論文 参考訳(メタデータ) (2020-11-16T21:49:00Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z) - LynyrdSkynyrd at WNUT-2020 Task 2: Semi-Supervised Learning for
Identification of Informative COVID-19 English Tweets [4.361526134899725]
本稿では,WNUT-2020における情報発信型英語ツイートの識別に関する共有タスクについて述べる。
本システムは,従来の特徴量に基づく分類と,事前学習型言語モデルの最近の進歩を活かした,さまざまな機械学習手法のアンサンブルである。
我々の最高の性能モデルは、提供された検証セットのF1スコア0.9179、ブラインドテストセットの0.8805を達成する。
論文 参考訳(メタデータ) (2020-09-08T16:29:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。