論文の概要: Transforming Fake News: Robust Generalisable News Classification Using
Transformers
- arxiv url: http://arxiv.org/abs/2109.09796v1
- Date: Mon, 20 Sep 2021 19:03:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:25:47.569107
- Title: Transforming Fake News: Robust Generalisable News Classification Using
Transformers
- Title(参考訳): Transforming Fake News: Transformer を用いたロバストな一般ニュース分類
- Authors: Ciara Blackledge and Amir Atapour-Abarghouei
- Abstract要約: パブリックなISOTとCombined Corpusデータセットを使用して、偽ニュースを識別するトランスフォーマーの能力を調べる。
そこで本研究では,モデルトレーニングと最終展開推論システムの両方から,そのような項目を除去する2段階の新たな分類パイプラインを提案する。
ISOTとコンバインド・コーパスのデータセットによる実験では、トランスフォーマーは分布一般化から最大4.9%までのF1スコアを達成している。
- 参考スコア(独自算出の注目度): 8.147652597876862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As online news has become increasingly popular and fake news increasingly
prevalent, the ability to audit the veracity of online news content has become
more important than ever. Such a task represents a binary classification
challenge, for which transformers have achieved state-of-the-art results. Using
the publicly available ISOT and Combined Corpus datasets, this study explores
transformers' abilities to identify fake news, with particular attention given
to investigating generalisation to unseen datasets with varying styles, topics
and class distributions. Moreover, we explore the idea that opinion-based news
articles cannot be classified as real or fake due to their subjective nature
and often sensationalised language, and propose a novel two-step classification
pipeline to remove such articles from both model training and the final
deployed inference system. Experiments over the ISOT and Combined Corpus
datasets show that transformers achieve an increase in F1 scores of up to 4.9%
for out of distribution generalisation compared to baseline approaches, with a
further increase of 10.1% following the implementation of our two-step
classification pipeline. To the best of our knowledge, this study is the first
to investigate generalisation of transformers in this context.
- Abstract(参考訳): オンラインニュースの人気が高まり、偽ニュースが普及するにつれ、オンラインニュースコンテンツの検証能力がこれまで以上に重要になっている。
そのようなタスクは、変圧器が最先端の結果を得られるバイナリ分類チャレンジを表している。
本研究では,公開のisotデータセットと組み合わせたコーパスデータセットを用いて偽ニュースを識別するトランスフォーマーの能力について検討する。
さらに,その主観的性質とセンセーショナルな言語によって,意見に基づくニュース記事が現実あるいは偽物と分類できないという考え方を探求し,モデルトレーニングと最終展開型推論システムの両方からその記事を削除する新たな2段階分類パイプラインを提案する。
isotと組み合わせたコーパスデータセットに関する実験により、トランスフォーマは、ベースラインのアプローチと比較して、分布の一般化のうち最大4.9%のf1スコアの上昇を達成し、さらに10.1%の上昇を示した。
私たちの知る限りでは、この文脈でトランスフォーマーの一般化を研究するのは、この研究が初めてです。
関連論文リスト
- VERITAS-NLI : Validation and Extraction of Reliable Information Through Automated Scraping and Natural Language Inference [0.0]
フェイクニュースの台頭は、大衆の言論の整合性、社会的信頼、そして報道されたニュースソースに脅威をもたらす。
我々は,Webスクラッピング技術と自然言語推論(NLI)モデルを活用する新しいソリューションを提案する。
本システムは,複数のニュースチャンネルと広域ドメインにまたがる多種多様な自己計算評価データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-10-12T09:25:12Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - FineFake: A Knowledge-Enriched Dataset for Fine-Grained Multi-Domain Fake News Detection [54.37159298632628]
FineFakeは、フェイクニュース検出のためのマルチドメイン知識強化ベンチマークである。
FineFakeは6つのセマンティックトピックと8つのプラットフォームにまたがる16,909のデータサンプルを含んでいる。
FineFakeプロジェクト全体がオープンソースリポジトリとして公開されている。
論文 参考訳(メタデータ) (2024-03-30T14:39:09Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - MisRoB{\AE}RTa: Transformers versus Misinformation [0.6091702876917281]
本稿では,誤情報検出のためのトランスフォーマーに基づくニューラルアンサンブルアーキテクチャを提案する。
MisRobaerTaは、分類性能を改善するために、2つのトランスフォーマー(BARTとRoBERTa)を利用する。
トレーニングとテストのために、私たちは10のクラスでラベル付けされた大規模な現実世界のニュース記事データセットを使用しました。
論文 参考訳(メタデータ) (2023-04-16T12:14:38Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Detecting COVID-19 Conspiracy Theories with Transformers and TF-IDF [2.3202611780303553]
我々はMediaEvalベンチマーク2021において,3つのフェイクニュース検出タスクの手法と結果を示す。
事前学習した変圧器は最高の検証結果が得られるが、スマートデザインのランダムトレーニングされた変圧器は、事前学習した変圧器に近い精度に達するように訓練することもできる。
論文 参考訳(メタデータ) (2022-05-01T01:48:48Z) - A Fourier-based Framework for Domain Generalization [82.54650565298418]
ドメインの一般化は、複数のソースドメインから伝達可能な知識を学習して、未確認のターゲットドメインに一般化することでこの問題に対処することを目的としている。
本稿では、ドメイン一般化のための新しいフーリエに基づく視点を紹介する。
3つのベンチマーク実験により,提案手法は領域一般化のための最先端性能を実現することができることを示した。
論文 参考訳(メタデータ) (2021-05-24T06:50:30Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - Two Stage Transformer Model for COVID-19 Fake News Detection and Fact
Checking [0.3441021278275805]
我々は、自然言語処理のための機械学習モデルの状態を用いて、新型コロナウイルスの偽ニュース検出のための2段階の自動パイプラインを開発する。
最初のモデルは、新型コロナウイルス(COVID-19)の特定のクレームに関するユーザーのクレームに関する最も関連性の高い事実を検索する、新しい事実チェックアルゴリズムを活用する。
第2のモデルは、クレームと、手動でキュレートされたCOVID-19データセットから取得した真事実の間のテキストの関連性を計算することによって、クレームの真理レベルを検証する。
論文 参考訳(メタデータ) (2020-11-26T11:50:45Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。