論文の概要: Performance Analysis of Transformer Based Models (BERT, ALBERT and
RoBERTa) in Fake News Detection
- arxiv url: http://arxiv.org/abs/2308.04950v1
- Date: Wed, 9 Aug 2023 13:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:35:44.311919
- Title: Performance Analysis of Transformer Based Models (BERT, ALBERT and
RoBERTa) in Fake News Detection
- Title(参考訳): フェイクニュース検出における変換器ベースモデル(BERT, ALBERT, RoBERTa)の性能解析
- Authors: Shafna Fitria Nur Azizah, Hasan Dwi Cahyono, Sari Widya Sihwi, Wisnu
Widiarto
- Abstract要約: 住民の誤報や誤報に最もさらされた地域のトップ3は、バンテン、DKIジャカルタ、西ジャワである。
従来の研究では、BERTとして知られる変圧器モデルの非変圧器アプローチ上における優れた性能が示されている。
本研究では、これらのトランスモデルを探索し、ALBERTが87.6%の精度、86.9%の精度、86.9%のF1スコア、174.5の実行時間(s/epoch)で他のモデルより優れていることを発見した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fake news is fake material in a news media format but is not processed
properly by news agencies. The fake material can provoke or defame significant
entities or individuals or potentially even for the personal interests of the
creators, causing problems for society. Distinguishing fake news and real news
is challenging due to limited of domain knowledge and time constraints.
According to the survey, the top three areas most exposed to hoaxes and
misinformation by residents are in Banten, DKI Jakarta and West Java. The model
of transformers is referring to an approach in the field of artificial
intelligence (AI) in natural language processing utilizing the deep learning
architectures. Transformers exercise a powerful attention mechanism to process
text in parallel and produce rich and contextual word representations. A
previous study indicates a superior performance of a transformer model known as
BERT over and above non transformer approach. However, some studies suggest the
performance can be improved with the use of improved BERT models known as
ALBERT and RoBERTa. However, the modified BERT models are not well explored for
detecting fake news in Bahasa Indonesia. In this research, we explore those
transformer models and found that ALBERT outperformed other models with 87.6%
accuracy, 86.9% precision, 86.9% F1-score, and 174.5 run-time (s/epoch)
respectively. Source code available at:
https://github.com/Shafna81/fakenewsdetection.git
- Abstract(参考訳): フェイクニュースは、ニュースメディア形式では偽物であるが、ニュース機関によって適切に処理されていない。
偽の素材は、重要な実体や個人を挑発したり、あるいはクリエーターの個人的な利益のためにも、社会に問題を引き起こす可能性がある。
ドメイン知識や時間制約が限られているため、偽ニュースや本当のニュースの排除は難しい。
調査によると、住民によって最も嫌悪や誤報に晒された地域のトップ3は、バンテン、DKIジャカルタ、西ジャワである。
変換器のモデルは、ディープラーニングアーキテクチャを利用した自然言語処理における人工知能(AI)の分野におけるアプローチを指す。
トランスフォーマーは、テキストを並列に処理し、リッチで文脈的な単語表現を生成する強力な注意メカニズムを実行します。
前回の研究では、BERTとして知られるトランスモデルの非トランスアプローチよりも優れた性能を示す。
しかし、ALBERTやRoBERTaとして知られる改良されたBERTモデルを使用することで、性能を向上できるという研究もある。
しかし、修正されたbertモデルはバハサインドネシアで偽ニュースを検出するためにはあまり研究されていない。
本研究では、これらのトランスフォーマーモデルを調査し、albertが87.6%の精度、86.9%の精度、86.9%のf1-score、および174.5のランタイム(s/epoch)で他モデルよりも優れていることを発見した。
ソースコード: https://github.com/shafna81/fakenewsdetection.git
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Detecting COVID-19 Conspiracy Theories with Transformers and TF-IDF [2.3202611780303553]
我々はMediaEvalベンチマーク2021において,3つのフェイクニュース検出タスクの手法と結果を示す。
事前学習した変圧器は最高の検証結果が得られるが、スマートデザインのランダムトレーニングされた変圧器は、事前学習した変圧器に近い精度に達するように訓練することもできる。
論文 参考訳(メタデータ) (2022-05-01T01:48:48Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - COVID-19 Fake News Detection Using Bidirectional Encoder Representations
from Transformers Based Models [16.400631119118636]
新型コロナウイルス(COVID-19)の偽ニュース検出は、NLP分野において新しく重要な課題となっている。
本稿では,変換器モデル(BERT)をベースモデルとして,事前学習した双方向表現を微調整する。
BiLSTM 層と CNN 層をそれぞれ凍結パラメータを持つ細調整BERT モデルのトップに加える。
論文 参考訳(メタデータ) (2021-09-30T02:50:05Z) - Two Stage Transformer Model for COVID-19 Fake News Detection and Fact
Checking [0.3441021278275805]
我々は、自然言語処理のための機械学習モデルの状態を用いて、新型コロナウイルスの偽ニュース検出のための2段階の自動パイプラインを開発する。
最初のモデルは、新型コロナウイルス(COVID-19)の特定のクレームに関するユーザーのクレームに関する最も関連性の高い事実を検索する、新しい事実チェックアルゴリズムを活用する。
第2のモデルは、クレームと、手動でキュレートされたCOVID-19データセットから取得した真事実の間のテキストの関連性を計算することによって、クレームの真理レベルを検証する。
論文 参考訳(メタデータ) (2020-11-26T11:50:45Z) - Connecting the Dots Between Fact Verification and Fake News Detection [21.564628184287173]
本稿では,事実検証と偽ニュース検出の点を結合する,シンプルで効果的な手法を提案する。
提案手法は,最近の事実検証モデルの成功を活用し,ゼロショットフェイクニュースの検出を可能にする。
論文 参考訳(メタデータ) (2020-10-11T09:28:52Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。