論文の概要: A Hybrid Transformer Model for Fake News Detection: Leveraging Bayesian Optimization and Bidirectional Recurrent Unit
- arxiv url: http://arxiv.org/abs/2502.09097v1
- Date: Thu, 13 Feb 2025 09:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:54.274528
- Title: A Hybrid Transformer Model for Fake News Detection: Leveraging Bayesian Optimization and Bidirectional Recurrent Unit
- Title(参考訳): フェイクニュース検出のためのハイブリッド変圧器モデル:ベイズ最適化と双方向リカレントユニットを活用する
- Authors: Tianyi Huang, Zeqiu Xu, Peiyang Yu, Jingyuan Yi, Xiaochuan Xu,
- Abstract要約: ベイズアルゴリズムを双方向Gated Recurrent Unit (BiGRU) と統合する最適化トランスフォーマーモデルを提案する。
実験の結果、BiGRU最適化トランスフォーマーはトレーニングセットで100%、テストセットで99.67%の精度を達成した。
提案アルゴリズムは, ほぼ100%の精度で10世紀頃に急速に収束し, その有効性と高速な分類能力を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we propose an optimized Transformer model that integrates Bayesian algorithms with a Bidirectional Gated Recurrent Unit (BiGRU), and apply it to fake news classification for the first time. First, we employ the TF-IDF method to extract features from news texts and transform them into numeric representations to facilitate subsequent machine learning tasks. Two sets of experiments are then conducted for fake news detection and classification: one using a Transformer model optimized only with BiGRU, and the other incorporating Bayesian algorithms into the BiGRU-based Transformer. Experimental results show that the BiGRU-optimized Transformer achieves 100% accuracy on the training set and 99.67% on the test set, while the addition of the Bayesian algorithm maintains 100% accuracy on the training set and slightly improves test-set accuracy to 99.73%. This indicates that the Bayesian algorithm boosts model accuracy by 0.06%, further enhancing the detection capability for fake news. Moreover, the proposed algorithm converges rapidly at around the 10th training epoch with accuracy nearing 100%, demonstrating both its effectiveness and its fast classification ability. Overall, the optimized Transformer model, enhanced by the Bayesian algorithm and BiGRU, exhibits excellent continuous learning and detection performance, offering a robust technical means to combat the spread of fake news in the current era of information overload.
- Abstract(参考訳): 本稿では,バイラルアルゴリズムを双方向Gated Recurrent Unit (BiGRU) と統合したトランスフォーマーモデルを提案し,これを初めてフェイクニュース分類に適用する。
まず、TF-IDF法を用いてニューステキストから特徴を抽出し、それらを数値表現に変換し、その後の機械学習作業を容易にする。
ひとつはBiGRUのみに最適化されたTransformerモデルを使用し、もうひとつはベイズアルゴリズムをBiGRUベースのTransformerに組み込んだものだ。
実験の結果、BiGRU最適化トランスフォーマーはトレーニングセットで100%、テストセットで99.67%、ベイジアンアルゴリズムではトレーニングセットで100%の精度を維持し、テストセットでわずかに99.73%向上していることがわかった。
これはベイジアンアルゴリズムがモデル精度を0.06%向上させ、フェイクニュースの検出能力をさらに向上させることを示している。
さらに, 提案アルゴリズムは, 10世紀頃に, 100%に近い精度で急速に収束し, その有効性と高速な分類能力を示す。
全体として、ベイジアンアルゴリズムとBiGRUによって強化された最適化されたトランスフォーマーモデルは、優れた継続的学習と検出性能を示し、現在の情報過負荷の時代におけるフェイクニュースの拡散に対抗するための堅牢な技術的手段を提供する。
関連論文リスト
- Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Neural Priming for Sample-Efficient Adaptation [92.14357804106787]
ニューラルプライミング(Neural Priming)は、大規模な事前学習されたモデルを分散シフトや下流タスクに適応させる手法である。
ニューラルプライミングは、LAION-2Bほどの大きさの事前訓練であっても、テスト時に行うことができる。
論文 参考訳(メタデータ) (2023-06-16T21:53:16Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - SC-Transformer++: Structured Context Transformer for Generic Event
Boundary Detection [24.40776694538091]
本報告では,CVPR 2022におけるジェネリックイベント境界検出(GEBD)チャレンジの提出に使用されるアルゴリズムについて述べる。
具体的には、トランスエンコーダの後、トランスデコーダモジュールを追加して高品質なフレーム特徴を抽出する。
提案手法は,Kinetics-GEBDテストセットの86.49%のF1スコアを達成し,従来のSOTA法と比較して2.86%のF1スコアを向上した。
論文 参考訳(メタデータ) (2022-06-25T12:27:13Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - BiT: Robustly Binarized Multi-distilled Transformer [36.06192421902272]
実測精度の高いバイナライズトランスフォーマーモデルを開発し,5.9%の精度で完全精度のBERTベースラインにアプローチする。
これらのアプローチにより、事実上の精度で完全に双対化されたトランスフォーマーモデルが5.9%の精度で完全精度のBERTベースラインに近づいた。
論文 参考訳(メタデータ) (2022-05-25T19:01:54Z) - Encoding Syntactic Knowledge in Transformer Encoder for Intent Detection
and Slot Filling [6.234581622120001]
本稿では,インテント検出とスロットフィリングのための構文知識を符号化したトランスフォーマーエンコーダアーキテクチャを提案する。
シンタクティックな知識をトランスフォーマーエンコーダにエンコードし、マルチタスク学習を通じて各トークンの構文的パース祖先と部分音声を予測する。
論文 参考訳(メタデータ) (2020-12-21T21:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。