論文の概要: COVID-19 Fake News Detection Using Bidirectional Encoder Representations
from Transformers Based Models
- arxiv url: http://arxiv.org/abs/2109.14816v2
- Date: Fri, 1 Oct 2021 15:45:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 11:30:40.480586
- Title: COVID-19 Fake News Detection Using Bidirectional Encoder Representations
from Transformers Based Models
- Title(参考訳): トランスフォーマーモデルからの双方向エンコーダ表現を用いたcovid-19偽ニュース検出
- Authors: Yuxiang Wang, Yongheng Zhang, Xuebo Li, Xinyao Yu
- Abstract要約: 新型コロナウイルス(COVID-19)の偽ニュース検出は、NLP分野において新しく重要な課題となっている。
本稿では,変換器モデル(BERT)をベースモデルとして,事前学習した双方向表現を微調整する。
BiLSTM 層と CNN 層をそれぞれ凍結パラメータを持つ細調整BERT モデルのトップに加える。
- 参考スコア(独自算出の注目度): 16.400631119118636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, the development of social media allows people to access the latest
news easily. During the COVID-19 pandemic, it is important for people to access
the news so that they can take corresponding protective measures. However, the
fake news is flooding and is a serious issue especially under the global
pandemic. The misleading fake news can cause significant loss in terms of the
individuals and the society. COVID-19 fake news detection has become a novel
and important task in the NLP field. However, fake news always contain the
correct portion and the incorrect portion. This fact increases the difficulty
of the classification task. In this paper, we fine tune the pre-trained
Bidirectional Encoder Representations from Transformers (BERT) model as our
base model. We add BiLSTM layers and CNN layers on the top of the finetuned
BERT model with frozen parameters or not frozen parameters methods
respectively. The model performance evaluation results showcase that our best
model (BERT finetuned model with frozen parameters plus BiLSTM layers) achieves
state-of-the-art results towards COVID-19 fake news detection task. We also
explore keywords evaluation methods using our best model and evaluate the model
performance after removing keywords.
- Abstract(参考訳): 現在、ソーシャルメディアの開発により、人々は最新のニュースに簡単にアクセスできるようになっている。
新型コロナウイルス(COVID-19)のパンデミックでは、ニュースにアクセスして対応する保護措置をとることが重要である。
しかし、偽ニュースは溢れており、特に世界的なパンデミックでは深刻な問題となっている。
誤解を招く偽ニュースは、個人と社会の観点で大きな損失をもたらす可能性がある。
新型コロナウイルスの偽ニュース検出は、NLP分野において新しく重要な課題となっている。
しかし、偽ニュースは常に正しい部分と間違った部分を含んでいる。
この事実は分類作業の難しさを増す。
本稿では,変換器(BERT)モデルから事前学習した双方向エンコーダ表現をベースモデルとして微調整する。
bilstm層とcnn層を、それぞれ凍結パラメータの有無にかかわらず、凍結パラメータを持つ微調整bertモデルの上に追加する。
モデル性能評価の結果、私たちの最良のモデル(凍結パラメータとbilstm層を備えたbert微調整モデル)が、新型コロナウイルスの偽ニュース検出タスクに対して最先端の結果を達成できることが示されました。
また,最良のモデルを用いてキーワード評価手法を検討し,キーワード除去後のモデル性能を評価する。
関連論文リスト
- A Semi-supervised Fake News Detection using Sentiment Encoding and LSTM with Self-Attention [0.0]
本研究では,感情分析を最先端の事前学習モデルによって獲得する半教師付き自己学習手法を提案する。
学習モデルは半教師付き方式で訓練され、LSTMに自己注意層を組み込む。
我々は,2万件のニュースコンテンツをデータセットにベンチマークし,そのフィードバックとともに,フェイクニュース検出における競合手法と比較して精度,リコール,測定性能が向上したことを示す。
論文 参考訳(メタデータ) (2024-07-27T20:00:10Z) - MoE-FFD: Mixture of Experts for Generalized and Parameter-Efficient Face Forgery Detection [54.545054873239295]
ディープフェイクは、最近、国民の間で重大な信頼問題とセキュリティ上の懸念を提起した。
ViT法はトランスの表現性を生かし,優れた検出性能を実現する。
この研究は、汎用的でパラメータ効率のよいViTベースのアプローチであるFace Forgery Detection (MoE-FFD)のためのMixture-of-Expertsモジュールを導入する。
論文 参考訳(メタデータ) (2024-04-12T13:02:08Z) - Performance Analysis of Transformer Based Models (BERT, ALBERT and
RoBERTa) in Fake News Detection [0.0]
住民の誤報や誤報に最もさらされた地域のトップ3は、バンテン、DKIジャカルタ、西ジャワである。
従来の研究では、BERTとして知られる変圧器モデルの非変圧器アプローチ上における優れた性能が示されている。
本研究では、これらのトランスモデルを探索し、ALBERTが87.6%の精度、86.9%の精度、86.9%のF1スコア、174.5の実行時間(s/epoch)で他のモデルより優れていることを発見した。
論文 参考訳(メタデータ) (2023-08-09T13:33:27Z) - A Simple yet Effective Self-Debiasing Framework for Transformer Models [49.09053367249642]
現在のTransformerベースの自然言語理解(NLU)モデルは、データセットバイアスに大きく依存している。
本稿では,トランスフォーマーベースNLUモデルのための簡易かつ効果的な自己退化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-02T20:31:58Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - A Comparative Study on COVID-19 Fake News Detection Using Different
Transformer Based Models [2.0649235321315285]
ソーシャルネットワークの急速な進歩とインターネット利用の利便性により、ソーシャルメディアサイトにおける偽ニュースや噂の急増が加速した。
このような不正確さの拡散を制限するために、オンラインプラットフォームから偽ニュースを特定することが、最初の、そして最も重要なステップとなるかもしれない。
RoBERTaモデルは、実クラスと偽クラスの両方でF1スコア0.98を得ることで、他のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-08-02T10:50:16Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - Two Stage Transformer Model for COVID-19 Fake News Detection and Fact
Checking [0.3441021278275805]
我々は、自然言語処理のための機械学習モデルの状態を用いて、新型コロナウイルスの偽ニュース検出のための2段階の自動パイプラインを開発する。
最初のモデルは、新型コロナウイルス(COVID-19)の特定のクレームに関するユーザーのクレームに関する最も関連性の高い事実を検索する、新しい事実チェックアルゴリズムを活用する。
第2のモデルは、クレームと、手動でキュレートされたCOVID-19データセットから取得した真事実の間のテキストの関連性を計算することによって、クレームの真理レベルを検証する。
論文 参考訳(メタデータ) (2020-11-26T11:50:45Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z) - DeeBERT: Dynamic Early Exiting for Accelerating BERT Inference [69.93692147242284]
BERTのような大規模事前訓練型言語モデルは、NLPアプリケーションに大幅な改善をもたらした。
本稿では, BERT推論を高速化するために, 単純だが効果的な手法であるDeeBERTを提案する。
実験の結果、DeeBERTはモデル品質の低下を最小限に抑えながら、最大40%の推論時間を節約できることがわかった。
論文 参考訳(メタデータ) (2020-04-27T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。