論文の概要: Dac-Fake: A Divide and Conquer Framework for Detecting Fake News on Social Media
- arxiv url: http://arxiv.org/abs/2508.16223v1
- Date: Fri, 22 Aug 2025 08:52:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.325535
- Title: Dac-Fake: A Divide and Conquer Framework for Detecting Fake News on Social Media
- Title(参考訳): Dac-Fake: ソーシャルメディア上でのフェイクニュース検出のための分断・コンカレントフレームワーク
- Authors: Mayank Kumar Jain, Dinesh Gopalani, Yogesh Kumar Meena, Nishant Jain,
- Abstract要約: 本稿では,分割・征服戦略を用いた新しいフェイクニュース検出モデルであるDaCFakeを紹介する。
提案手法は,ニュース記事から80以上の言語的特徴を抽出し,単語の連続袋やスキップグラムモデルと統合することにより,検出精度を向上する。
我々は、Kaggle、McIntire + PolitiFact、Reuterの3つのデータセット上でのDaCFakeの性能を評価した。
- 参考スコア(独自算出の注目度): 16.97434216951653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid evolution of technology and the Internet, the proliferation of fake news on social media has become a critical issue, leading to widespread misinformation that can cause societal harm. Traditional fact checking methods are often too slow to prevent the dissemination of false information. Therefore, the need for rapid, automated detection of fake news is paramount. We introduce DaCFake, a novel fake news detection model using a divide and conquer strategy that combines content and context based features. Our approach extracts over eighty linguistic features from news articles and integrates them with either a continuous bag of words or a skipgram model for enhanced detection accuracy. We evaluated the performance of DaCFake on three datasets including Kaggle, McIntire + PolitiFact, and Reuter achieving impressive accuracy rates of 97.88%, 96.05%, and 97.32%, respectively. Additionally, we employed a ten-fold cross validation to further enhance the model's robustness and accuracy. These results highlight the effectiveness of DaCFake in early detection of fake news, offering a promising solution to curb misinformation on social media platforms.
- Abstract(参考訳): テクノロジーとインターネットの急速な進化により、ソーシャルメディア上のフェイクニュースの拡散が重大な問題となり、社会的な害をもたらすような誤報が広まっていく。
従来の事実検査手法は、偽情報の拡散を防ぐには遅すぎることが多い。
したがって、フェイクニュースの迅速かつ自動検出の必要性が最重要である。
本稿では,コンテンツとコンテキストに基づく特徴を組み合わせた分割・征服戦略を用いた新しいフェイクニュース検出モデルであるDaCFakeを紹介する。
提案手法は,ニュース記事から80以上の言語的特徴を抽出し,単語の連続袋やスキップグラムモデルと統合することにより,検出精度を向上する。
我々は,Kaggle,McIntire + PolitiFact,Reuterの3つのデータセットにおけるDaCFakeの性能を評価し,それぞれ97.88%,96.05%,97.32%の精度を達成した。
さらに,モデルの堅牢性と精度をさらに高めるために,10倍のクロスバリデーションを適用した。
これらの結果は、偽ニュースの早期発見におけるDaCFakeの有効性を強調し、ソーシャルメディアプラットフォーム上の誤情報を抑制するための有望な解決策を提供する。
関連論文リスト
- A Regularized LSTM Method for Detecting Fake News Articles [0.0]
本稿では,偽ニュース記事を検出するための高度な機械学習ソリューションを開発する。
我々は、23,502の偽ニュース記事と21,417の正確なニュース記事を含む、包括的なニュース記事のデータセットを活用している。
私たちの研究は、そのようなモデルを現実世界のアプリケーションにデプロイする可能性を強調しています。
論文 参考訳(メタデータ) (2024-11-16T05:54:36Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - A Multi-Policy Framework for Deep Learning-Based Fake News Detection [0.31498833540989407]
フェイクニュース検出を自動化するフレームワークであるMPSC(Multi-Policy Statement Checker)を導入する。
MPSCは、深層学習技術を用いて、文自体とその関連するニュース記事を分析し、それが信頼できるか疑わしいかを予測する。
論文 参考訳(メタデータ) (2022-06-01T21:25:21Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Multimodal Fake News Detection [1.929039244357139]
単調な手法とマルチモーダル手法の両方を用いて、ファケディットデータセット上のフェイクニュースのきめ細かい分類を行う。
操作されたコンテンツ、Satire、False接続などの偽ニュースカテゴリは、画像の使用の恩恵を強く受けている。
画像を使用することで、他のカテゴリの結果も改善されるが、影響は少ない。
論文 参考訳(メタデータ) (2021-12-09T10:57:18Z) - Stance Detection with BERT Embeddings for Credibility Analysis of
Information on Social Media [1.7616042687330642]
本稿では,記事の内容とともに,その特徴の1つとして姿勢を用いた偽ニュースを検出するモデルを提案する。
本研究は,自動的特徴抽出とテキストの関連性でコンテンツを解釈する。
実世界のデータセットで行った実験は、我々のモデルが以前の研究より優れており、95.32%の精度で偽ニュースの検出を可能にすることを示している。
論文 参考訳(メタデータ) (2021-05-21T10:46:43Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Connecting the Dots Between Fact Verification and Fake News Detection [21.564628184287173]
本稿では,事実検証と偽ニュース検出の点を結合する,シンプルで効果的な手法を提案する。
提案手法は,最近の事実検証モデルの成功を活用し,ゼロショットフェイクニュースの検出を可能にする。
論文 参考訳(メタデータ) (2020-10-11T09:28:52Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。