論文の概要: A Self-Learning Multimodal Approach for Fake News Detection
- arxiv url: http://arxiv.org/abs/2412.05843v1
- Date: Sun, 08 Dec 2024 07:41:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:58:07.165359
- Title: A Self-Learning Multimodal Approach for Fake News Detection
- Title(参考訳): フェイクニュース検出のための自己学習型マルチモーダルアプローチ
- Authors: Hao Chen, Hui Guo, Baochen Hu, Shu Hu, Jinrong Hu, Siwei Lyu, Xi Wu, Xin Wang,
- Abstract要約: 偽ニュース分類のための自己学習型マルチモーダルモデルを提案する。
このモデルは、ラベル付きデータを必要としない機能抽出のための堅牢な手法であるコントラスト学習を利用する。
公開データセットを用いた実験結果から,提案モデルがいくつかの最先端の分類手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 35.98977478616019
- License:
- Abstract: The rapid growth of social media has resulted in an explosion of online news content, leading to a significant increase in the spread of misleading or false information. While machine learning techniques have been widely applied to detect fake news, the scarcity of labeled datasets remains a critical challenge. Misinformation frequently appears as paired text and images, where a news article or headline is accompanied by a related visuals. In this paper, we introduce a self-learning multimodal model for fake news classification. The model leverages contrastive learning, a robust method for feature extraction that operates without requiring labeled data, and integrates the strengths of Large Language Models (LLMs) to jointly analyze both text and image features. LLMs are excel at this task due to their ability to process diverse linguistic data drawn from extensive training corpora. Our experimental results on a public dataset demonstrate that the proposed model outperforms several state-of-the-art classification approaches, achieving over 85% accuracy, precision, recall, and F1-score. These findings highlight the model's effectiveness in tackling the challenges of multimodal fake news detection.
- Abstract(参考訳): ソーシャルメディアの急速な成長により、オンラインニュースコンテンツが急増し、誤解を招く情報や偽情報の拡散が著しく増加した。
偽ニュースを検出するために機械学習技術が広く応用されているが、ラベル付きデータセットの不足は依然として重要な課題である。
誤報は、しばしばペア化されたテキストや画像として現れ、ニュース記事や見出しに関連したビジュアルが添えられている。
本稿では,偽ニュース分類のための自己学習型マルチモーダルモデルを提案する。
このモデルは、ラベル付きデータを必要としない機能抽出のための頑健な手法であるコントラスト学習を活用し、Large Language Models(LLM)の強みを統合して、テキストと画像の両方の特徴を共同で分析する。
LLMは、広範囲な学習コーパスから引き出された多様な言語データを処理できることから、この課題に優れています。
公開データセットを用いた実験結果から,提案手法は,精度85%以上の精度,精度,リコール,F1スコアを達成し,最先端の分類手法よりも優れていることが示された。
これらの結果は、マルチモーダルフェイクニュース検出の課題に対処する上で、モデルの有効性を浮き彫りにした。
関連論文リスト
- A Multimodal Adaptive Graph-based Intelligent Classification Model for Fake News [1.537737222790121]
偽ニュース検出のためのマルチモーダル適応グラフに基づくインテリジェント分類(MAGIC)を導入する。
ソフトマックス関数によるマルチモーダル入力を分類する前に,適応型グラフアテンションネットワークを用いて包括的情報相互作用グラフを構築した。
MAGICは2つの偽ニュースデータセット、すなわちFakeddit(英語)とMultimodal Fake News Detection(中国語)で訓練され、それぞれ98.8%と86.3%の精度を達成した。
論文 参考訳(メタデータ) (2024-11-09T07:19:19Z) - Ethio-Fake: Cutting-Edge Approaches to Combat Fake News in Under-Resourced Languages Using Explainable AI [44.21078435758592]
誤報はコンテンツの作成や拡散が容易なため、急速に広まることがある。
従来のフェイクニュース検出のアプローチは、コンテンツベースの機能にのみ依存することが多い。
本稿では,ソーシャルコンテキストに基づく機能とニュースコンテンツ機能を統合した包括的アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:49:35Z) - MMSci: A Dataset for Graduate-Level Multi-Discipline Multimodal Scientific Understanding [59.41495657570397]
このデータセットには、スキーマ図、シミュレーション画像、マクロ/顕微鏡写真、実験的可視化などの図が含まれている。
我々は,6つのプロプライエタリモデルと10以上のオープンソースモデルを評価し,科学的フィギュアキャプションと複数選択質問のベンチマークを開発した。
データセットとベンチマークは、さらなる研究をサポートするためにリリースされる予定だ。
論文 参考訳(メタデータ) (2024-07-06T00:40:53Z) - Enhancing Large Vision Language Models with Self-Training on Image Comprehension [131.14381425260706]
本稿では、画像理解に特化して自己学習アプローチを強調する自己学習 on Image (STIC)を紹介する。
まず、ラベルのない画像を用いて、画像記述の好みを自己構築する。
抽出した視覚情報に対する推論をさらに自己改善するため,既存の命令調整データのごく一部をモデルに再利用する。
論文 参考訳(メタデータ) (2024-05-30T05:53:49Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Interpretable Fake News Detection with Topic and Deep Variational Models [2.15242029196761]
我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2022-09-04T05:31:00Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Multimodal Emergent Fake News Detection via Meta Neural Process Networks [36.52739834391597]
本稿では,MetaFENDというフェイクニュース検出フレームワークを提案する。
具体的には、メタラーニングとニューラルプロセスの手法を統合したモデルを提案する。
TwitterとWeiboから収集したマルチメディアデータセットに対して、大規模な実験が行われた。
論文 参考訳(メタデータ) (2021-06-22T21:21:29Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。