論文の概要: COVID-19 Fake News Detection Using Bidirectiona lEncoder Representations
from Transformers Based Models
- arxiv url: http://arxiv.org/abs/2109.14816v1
- Date: Thu, 30 Sep 2021 02:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 04:45:46.633891
- Title: COVID-19 Fake News Detection Using Bidirectiona lEncoder Representations
from Transformers Based Models
- Title(参考訳): トランスフォーマーモデルを用いたbidirectiona lEncoder表現を用いたCOVID-19フェイクニュースの検出
- Authors: Yuxiang Wang, Yongheng Zhang, Xuebo Li, Xinyao Yu
- Abstract要約: 新型コロナウイルス(COVID-19)の偽ニュース検出は、NLP分野において新しく重要な課題となっている。
本稿では,変換器モデル(BERT)をベースモデルとして,事前学習した双方向表現を微調整する。
BiLSTM 層と CNN 層をそれぞれ凍結パラメータを持つ細調整BERT モデルのトップに加える。
- 参考スコア(独自算出の注目度): 16.400631119118636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, the development of social media allows people to access the latest
news easily. During the COVID-19 pandemic, it is important for people to access
the news so that they can take corresponding protective measures. However, the
fake news is flooding and is a serious issue especially under the global
pandemic. The misleading fake news can cause significant loss in terms of the
individuals and the society. COVID-19 fake news detection has become a novel
and important task in the NLP field. However, fake news always contain the
correct portion and the incorrect portion. This fact increases the difficulty
of the classification task. In this paper, we fine tune the pre-trained
Bidirectional Encoder Representations from Transformers (BERT) model as our
base model. We add BiLSTM layers and CNN layers on the top of the finetuned
BERT model with frozen parameters or not frozen parameters methods
respectively. The model performance evaluation results showcase that our best
model (BERT finetuned model with frozen parameters plus BiLSTM layers) achieves
state-of-the-art results towards COVID-19 fake news detection task. We also
explore keywords evaluation methods using our best model and evaluate the model
performance after removing keywords.
- Abstract(参考訳): 現在、ソーシャルメディアの開発により、人々は最新のニュースに簡単にアクセスできるようになっている。
新型コロナウイルス(COVID-19)のパンデミックでは、ニュースにアクセスして対応する保護措置をとることが重要である。
しかし、偽ニュースは溢れており、特に世界的なパンデミックでは深刻な問題となっている。
誤解を招く偽ニュースは、個人と社会の観点で大きな損失をもたらす可能性がある。
新型コロナウイルスの偽ニュース検出は、NLP分野において新しく重要な課題となっている。
しかし、偽ニュースは常に正しい部分と間違った部分を含んでいる。
この事実は分類作業の難しさを増す。
本稿では,変換器(BERT)モデルから事前学習した双方向エンコーダ表現をベースモデルとして微調整する。
bilstm層とcnn層を、それぞれ凍結パラメータの有無にかかわらず、凍結パラメータを持つ微調整bertモデルの上に追加する。
モデル性能評価の結果、私たちの最良のモデル(凍結パラメータとbilstm層を備えたbert微調整モデル)が、新型コロナウイルスの偽ニュース検出タスクに対して最先端の結果を達成できることが示されました。
また,最良のモデルを用いてキーワード評価手法を検討し,キーワード除去後のモデル性能を評価する。
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [54.60443666911077]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - A Trustable LSTM-Autoencoder Network for Cyberbullying Detection on
Social Media Using Synthetic Data [2.378735224874938]
本稿では,ソーシャルメディア上でのサイバーバブル検出のための信頼性の高いLSTM-Autoencoderネットワークを提案する。
我々は、機械翻訳データを生成することにより、データの可用性の難しさに対処する最先端の手法を実証した。
我々はヒンディー語、バングラ語、英語のデータセットに対するアグレッシブなコメントを実験的に同定した。
論文 参考訳(メタデータ) (2023-08-15T17:20:05Z) - Performance Analysis of Transformer Based Models (BERT, ALBERT and
RoBERTa) in Fake News Detection [0.0]
住民の誤報や誤報に最もさらされた地域のトップ3は、バンテン、DKIジャカルタ、西ジャワである。
従来の研究では、BERTとして知られる変圧器モデルの非変圧器アプローチ上における優れた性能が示されている。
本研究では、これらのトランスモデルを探索し、ALBERTが87.6%の精度、86.9%の精度、86.9%のF1スコア、174.5の実行時間(s/epoch)で他のモデルより優れていることを発見した。
論文 参考訳(メタデータ) (2023-08-09T13:33:27Z) - A Simple yet Effective Self-Debiasing Framework for Transformer Models [49.09053367249642]
現在のTransformerベースの自然言語理解(NLU)モデルは、データセットバイアスに大きく依存している。
本稿では,トランスフォーマーベースNLUモデルのための簡易かつ効果的な自己退化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-02T20:31:58Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on
Social Media [53.51665032295087]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - A Comparative Study on COVID-19 Fake News Detection Using Different
Transformer Based Models [2.0649235321315285]
ソーシャルネットワークの急速な進歩とインターネット利用の利便性により、ソーシャルメディアサイトにおける偽ニュースや噂の急増が加速した。
このような不正確さの拡散を制限するために、オンラインプラットフォームから偽ニュースを特定することが、最初の、そして最も重要なステップとなるかもしれない。
RoBERTaモデルは、実クラスと偽クラスの両方でF1スコア0.98を得ることで、他のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-08-02T10:50:16Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - Two Stage Transformer Model for COVID-19 Fake News Detection and Fact
Checking [0.3441021278275805]
我々は、自然言語処理のための機械学習モデルの状態を用いて、新型コロナウイルスの偽ニュース検出のための2段階の自動パイプラインを開発する。
最初のモデルは、新型コロナウイルス(COVID-19)の特定のクレームに関するユーザーのクレームに関する最も関連性の高い事実を検索する、新しい事実チェックアルゴリズムを活用する。
第2のモデルは、クレームと、手動でキュレートされたCOVID-19データセットから取得した真事実の間のテキストの関連性を計算することによって、クレームの真理レベルを検証する。
論文 参考訳(メタデータ) (2020-11-26T11:50:45Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z) - DeeBERT: Dynamic Early Exiting for Accelerating BERT Inference [69.93692147242284]
BERTのような大規模事前訓練型言語モデルは、NLPアプリケーションに大幅な改善をもたらした。
本稿では, BERT推論を高速化するために, 単純だが効果的な手法であるDeeBERTを提案する。
実験の結果、DeeBERTはモデル品質の低下を最小限に抑えながら、最大40%の推論時間を節約できることがわかった。
論文 参考訳(メタデータ) (2020-04-27T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。