論文の概要: Classifying Text-Based Conspiracy Tweets related to COVID-19 using
Contextualized Word Embeddings
- arxiv url: http://arxiv.org/abs/2303.03706v1
- Date: Tue, 7 Mar 2023 07:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:07:36.690321
- Title: Classifying Text-Based Conspiracy Tweets related to COVID-19 using
Contextualized Word Embeddings
- Title(参考訳): 文脈化単語埋め込みを用いたcovid-19に関連するテキストに基づく共謀ツイートの分類
- Authors: Abdul Rehman, Rabeeh Ayaz Abbasi, Irfan ul Haq Qureshi, Akmal Saeed
Khattak
- Abstract要約: 本稿では,BERT,ELMO,およびそれらの組み合わせを用いて特徴抽出を行い,RandomForestを分類した。
その結果,ELMOはBERTよりも若干高い性能を示したが,機能レベルでの組み合わせで性能が低下した。
- 参考スコア(独自算出の注目度): 2.690550923299463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The FakeNews task in MediaEval 2022 investigates the challenge of finding
accurate and high-performance models for the classification of conspiracy
tweets related to COVID-19. In this paper, we used BERT, ELMO, and their
combination for feature extraction and RandomForest as classifier. The results
show that ELMO performs slightly better than BERT, however their combination at
feature level reduces the performance.
- Abstract(参考訳): mediaeval 2022のfakenewsタスクは、covid-19に関連する陰謀ツイートの分類について、正確かつハイパフォーマンスなモデルを見つけることの難しさを調査している。
本稿では,BERT,ELMO,およびそれらの組み合わせを用いて特徴抽出を行い,RandomForestを分類した。
その結果,ELMOはBERTよりも若干高い性能を示したが,機能レベルでの組み合わせで性能が低下した。
関連論文リスト
- Are ELECTRA's Sentence Embeddings Beyond Repair? The Case of Semantic Textual Similarity [0.0]
ELECTRAは、コスト効率のよい事前学習目標および下流タスク性能の改善を提供するが、より悪い文埋め込みを提供する。
そこで本研究では,新しいTMFT法を用いて埋め込みを修復する手法を提案する。
分析をさまざまなモデルサイズ、言語、その他の2つのタスクに拡張します。
論文 参考訳(メタデータ) (2024-02-20T16:43:20Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - HIT-SCIR at MMNLU-22: Consistency Regularization for Multilingual Spoken
Language Understanding [56.756090143062536]
本稿では,ハイブリッドデータ拡張戦略に基づく一貫性の正則化を提案する。
フルデータセットとゼロショット設定の両方で、MASSIVEデータセット上で実験を行う。
提案手法はインテント検出とスロット充足の両方の性能を向上させる。
論文 参考訳(メタデータ) (2023-01-05T11:21:15Z) - Probing for Understanding of English Verb Classes and Alternations in
Large Pre-trained Language Models [4.243426191555036]
本研究では,大規模事前学習言語モデルの埋め込みにおいて,動詞の交替クラスがエンコードされる範囲について検討する。
PLMのコンテキスト埋め込みは、多くのクラスにおけるタスクに対する驚くほど高い精度を実現する。
論文 参考訳(メタデータ) (2022-09-11T08:04:40Z) - Two-Stage Classifier for COVID-19 Misinformation Detection Using BERT: a
Study on Indonesian Tweets [0.15229257192293202]
インドネシアでの新型コロナウイルスの誤情報検出に関する研究はいまだに少ない。
本研究では,ツイート誤報検出タスクに対して,IndoBERT事前学習言語モデルを用いた2段階分類モデルを提案する。
実験の結果、関連予測のためのBERTシーケンス分類器と誤情報検出のためのBi-LSTMの組み合わせは、87.02%の精度で他の機械学習モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-06-30T15:33:20Z) - PromptBERT: Improving BERT Sentence Embeddings with Prompts [95.45347849834765]
本稿では,トークン埋め込みのバイアスを低減し,元のBERT層をより効果的にするためのプロンプトベースの文埋め込み手法を提案する。
また,教師なし設定と教師なし設定とのパフォーマンスギャップを大幅に短縮するテンプレート認知技術により,教師なし学習の新たな目標を提案する。
我々の微調整手法は教師なし設定と教師なし設定の両方において最先端のSimCSEよりも優れている。
論文 参考訳(メタデータ) (2022-01-12T06:54:21Z) - COVID-19 Fake News Detection Using Bidirectional Encoder Representations
from Transformers Based Models [16.400631119118636]
新型コロナウイルス(COVID-19)の偽ニュース検出は、NLP分野において新しく重要な課題となっている。
本稿では,変換器モデル(BERT)をベースモデルとして,事前学習した双方向表現を微調整する。
BiLSTM 層と CNN 層をそれぞれ凍結パラメータを持つ細調整BERT モデルのトップに加える。
論文 参考訳(メタデータ) (2021-09-30T02:50:05Z) - Dartmouth CS at WNUT-2020 Task 2: Informative COVID-19 Tweet
Classification Using BERT [2.1574781022415364]
我々は、WNUT-2020共有タスク2のために開発されたシステムについて説明します。
BERTは自然言語処理タスクのための高性能なモデルです。
我々は、BERTを微調整し、その埋め込みとつぶやき固有の特徴を結合することにより、この分類タスクにおけるBERTのパフォーマンスを向上した。
論文 参考訳(メタデータ) (2020-12-07T07:55:31Z) - Deep Clustering of Text Representations for Supervision-free Probing of
Syntax [51.904014754864875]
本研究では,音声誘導 (POSI) と選挙区ラベリング (CoLab) の一部を考察する。
また,Multilingual BERT (mBERT) には,驚くほど多くの英語の構文知識が含まれていることがわかった。
本稿では,45 タグの英語 POSI の競争性能,12 タグの英語 POSI の10言語間における最先端性能,CoLab の競争結果について報告する。
論文 参考訳(メタデータ) (2020-10-24T05:06:29Z) - BERT-ATTACK: Adversarial Attack Against BERT Using BERT [77.82947768158132]
離散データ(テキストなど)に対するアドリアック攻撃は、連続データ(画像など)よりも難しい。
対戦型サンプルを生成するための高品質で効果的な方法である textbfBERT-Attack を提案する。
本手法は、成功率と摂動率の両方において、最先端の攻撃戦略より優れている。
論文 参考訳(メタデータ) (2020-04-21T13:30:02Z) - A Study on Efficiency, Accuracy and Document Structure for Answer
Sentence Selection [112.0514737686492]
本稿では,単語関連エンコーダとともに,原語階の内在的構造を活用すれば,競争的な結果が得られることを論じる。
私たちのモデルはWikiQAデータセットでトレーニングするのに9.5秒かかります。
論文 参考訳(メタデータ) (2020-03-04T22:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。