論文の概要: Two Stage Transformer Model for COVID-19 Fake News Detection and Fact
Checking
- arxiv url: http://arxiv.org/abs/2011.13253v1
- Date: Thu, 26 Nov 2020 11:50:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:39:11.487655
- Title: Two Stage Transformer Model for COVID-19 Fake News Detection and Fact
Checking
- Title(参考訳): 新型コロナウイルスのフェイクニュース検出とファクトチェックのための2段階トランスフォーマーモデル
- Authors: Rutvik Vijjali, Prathyush Potluri, Siddharth Kumar, Sundeep Teki
- Abstract要約: 我々は、自然言語処理のための機械学習モデルの状態を用いて、新型コロナウイルスの偽ニュース検出のための2段階の自動パイプラインを開発する。
最初のモデルは、新型コロナウイルス(COVID-19)の特定のクレームに関するユーザーのクレームに関する最も関連性の高い事実を検索する、新しい事実チェックアルゴリズムを活用する。
第2のモデルは、クレームと、手動でキュレートされたCOVID-19データセットから取得した真事実の間のテキストの関連性を計算することによって、クレームの真理レベルを検証する。
- 参考スコア(独自算出の注目度): 0.3441021278275805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of technology in online communication via social media
platforms has led to a prolific rise in the spread of misinformation and fake
news. Fake news is especially rampant in the current COVID-19 pandemic, leading
to people believing in false and potentially harmful claims and stories.
Detecting fake news quickly can alleviate the spread of panic, chaos and
potential health hazards. We developed a two stage automated pipeline for
COVID-19 fake news detection using state of the art machine learning models for
natural language processing. The first model leverages a novel fact checking
algorithm that retrieves the most relevant facts concerning user claims about
particular COVID-19 claims. The second model verifies the level of truth in the
claim by computing the textual entailment between the claim and the true facts
retrieved from a manually curated COVID-19 dataset. The dataset is based on a
publicly available knowledge source consisting of more than 5000 COVID-19 false
claims and verified explanations, a subset of which was internally annotated
and cross-validated to train and evaluate our models. We evaluate a series of
models based on classical text-based features to more contextual Transformer
based models and observe that a model pipeline based on BERT and ALBERT for the
two stages respectively yields the best results.
- Abstract(参考訳): ソーシャルメディアプラットフォームによるオンラインコミュニケーションにおける技術の急速な進歩は、誤情報やフェイクニュースの普及に大きく結びついている。
偽ニュースは新型コロナウイルス(COVID-19)のパンデミックで特に波及し、虚偽で潜在的に有害な主張や物語を信じる人々がいる。
偽ニュースを素早く検出することは、パニック、カオス、潜在的な健康リスクの拡散を緩和する。
自然言語処理のための最先端機械学習モデルを用いて,covid-19偽ニュース検出のための2段階自動化パイプラインを開発した。
最初のモデルは、新型コロナウイルスに関するユーザーの主張に関する最も関連性の高い事実を検索する、新しい事実チェックアルゴリズムを活用する。
第2のモデルは、クレームと、手動でキュレートされたCOVID-19データセットから取得した真事実の間のテキストの関連性を計算することによって、クレームの真理レベルを検証する。
このデータセットは、5000以上の新型コロナウイルスの偽の主張と検証された説明からなる公開知識ソースに基づいており、そのサブセットは内部で注釈付けされ、モデルのトレーニングと評価のためにクロスバリデーションされた。
従来のテキストベースの特徴に基づく一連のモデルから、より文脈的なトランスフォーマーモデルの評価を行い、2段階のBERTとALBERTに基づくモデルパイプラインがそれぞれ最良の結果をもたらすことを観察する。
関連論文リスト
- How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - A Comparative Study on COVID-19 Fake News Detection Using Different
Transformer Based Models [2.0649235321315285]
ソーシャルネットワークの急速な進歩とインターネット利用の利便性により、ソーシャルメディアサイトにおける偽ニュースや噂の急増が加速した。
このような不正確さの拡散を制限するために、オンラインプラットフォームから偽ニュースを特定することが、最初の、そして最も重要なステップとなるかもしれない。
RoBERTaモデルは、実クラスと偽クラスの両方でF1スコア0.98を得ることで、他のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-08-02T10:50:16Z) - Detecting COVID-19 Conspiracy Theories with Transformers and TF-IDF [2.3202611780303553]
我々はMediaEvalベンチマーク2021において,3つのフェイクニュース検出タスクの手法と結果を示す。
事前学習した変圧器は最高の検証結果が得られるが、スマートデザインのランダムトレーニングされた変圧器は、事前学習した変圧器に近い精度に達するように訓練することもできる。
論文 参考訳(メタデータ) (2022-05-01T01:48:48Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - COVID-19 Fake News Detection Using Bidirectional Encoder Representations
from Transformers Based Models [16.400631119118636]
新型コロナウイルス(COVID-19)の偽ニュース検出は、NLP分野において新しく重要な課題となっている。
本稿では,変換器モデル(BERT)をベースモデルとして,事前学習した双方向表現を微調整する。
BiLSTM 層と CNN 層をそれぞれ凍結パラメータを持つ細調整BERT モデルのトップに加える。
論文 参考訳(メタデータ) (2021-09-30T02:50:05Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - Connecting the Dots Between Fact Verification and Fake News Detection [21.564628184287173]
本稿では,事実検証と偽ニュース検出の点を結合する,シンプルで効果的な手法を提案する。
提案手法は,最近の事実検証モデルの成功を活用し,ゼロショットフェイクニュースの検出を可能にする。
論文 参考訳(メタデータ) (2020-10-11T09:28:52Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。