論文の概要: VERITAS-NLI : Validation and Extraction of Reliable Information Through Automated Scraping and Natural Language Inference
- arxiv url: http://arxiv.org/abs/2410.09455v1
- Date: Sat, 12 Oct 2024 09:25:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 14:14:38.062299
- Title: VERITAS-NLI : Validation and Extraction of Reliable Information Through Automated Scraping and Natural Language Inference
- Title(参考訳): VERITAS-NLI : 自動ストラップと自然言語推論による信頼性情報の検証と抽出
- Authors: Arjun Shah, Hetansh Shah, Vedica Bafna, Charmi Khandor, Sindhu Nair,
- Abstract要約: フェイクニュースの台頭は、大衆の言論の整合性、社会的信頼、そして報道されたニュースソースに脅威をもたらす。
我々は,Webスクラッピング技術と自然言語推論(NLI)モデルを活用する新しいソリューションを提案する。
本システムは,複数のニュースチャンネルと広域ドメインにまたがる多種多様な自己計算評価データセットを用いて評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In today's day and age where information is rapidly spread through online platforms, the rise of fake news poses an alarming threat to the integrity of public discourse, societal trust, and reputed news sources. Classical machine learning and Transformer-based models have been extensively studied for the task of fake news detection, however they are hampered by their reliance on training data and are unable to generalize on unseen headlines. To address these challenges, we propose our novel solution, leveraging web-scraping techniques and Natural Language Inference (NLI) models to retrieve external knowledge necessary for verifying the accuracy of a headline. Our system is evaluated on a diverse self-curated evaluation dataset spanning over multiple news channels and broad domains. Our best performing pipeline achieves an accuracy of 84.3% surpassing the best classical Machine Learning model by 33.3% and Bidirectional Encoder Representations from Transformers (BERT) by 31.0% . This highlights the efficacy of combining dynamic web-scraping with Natural Language Inference to find support for a claimed headline in the corresponding externally retrieved knowledge for the task of fake news detection.
- Abstract(参考訳): オンラインプラットフォームを通じて情報を急速に広める現代や時代において、フェイクニュースの台頭は、大衆の言論の完全性、社会的信頼、評判のニュースソースに対する脅威となる。
古典的な機械学習とトランスフォーマーベースのモデルは、偽ニュース検出のタスクのために広く研究されてきたが、トレーニングデータへの依存によって妨げられ、目に見えない見出しを一般化することができない。
これらの課題に対処するために,Webスクラッピング技術と自然言語推論(NLI)モデルを利用して,見出しの精度を検証するのに必要な外部知識を検索する新しい手法を提案する。
本システムは,複数のニュースチャンネルと広域ドメインにまたがる多種多様な自己計算評価データセットを用いて評価する。
我々の最高のパフォーマンスパイプラインは、最高の古典的機械学習モデルを上回る84.3%の精度を33.3%、トランスフォーマー(BERT)からの双方向エンコーダ表現を31.0%の精度で達成しています。
このことは、動的Webスクラッピングと自然言語推論を組み合わせることで、偽ニュース検出のタスクに対して、対応する外部検索された知識において、クレームの見出しに対するサポートを見つけることの有効性を強調している。
関連論文リスト
- A Regularized LSTM Method for Detecting Fake News Articles [0.0]
本稿では,偽ニュース記事を検出するための高度な機械学習ソリューションを開発する。
我々は、23,502の偽ニュース記事と21,417の正確なニュース記事を含む、包括的なニュース記事のデータセットを活用している。
私たちの研究は、そのようなモデルを現実世界のアプリケーションにデプロイする可能性を強調しています。
論文 参考訳(メタデータ) (2024-11-16T05:54:36Z) - Ethio-Fake: Cutting-Edge Approaches to Combat Fake News in Under-Resourced Languages Using Explainable AI [44.21078435758592]
誤報はコンテンツの作成や拡散が容易なため、急速に広まることがある。
従来のフェイクニュース検出のアプローチは、コンテンツベースの機能にのみ依存することが多い。
本稿では,ソーシャルコンテキストに基づく機能とニュースコンテンツ機能を統合した包括的アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:49:35Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - FNDaaS: Content-agnostic Detection of Fake News sites [3.936965297430477]
FNDは、コンテンツに依存しない最初のフェイクニュース検出手法である。
ニュースサイトごとのネットワークや構造的特徴など、新しい、未調査の機能について検討している。
過去のサイトでは最大0.967のAUCスコアを達成でき、新しくフラッグされたサイトでは最大77-92%の精度を達成できる。
論文 参考訳(メタデータ) (2022-12-13T11:17:32Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Two Stage Transformer Model for COVID-19 Fake News Detection and Fact
Checking [0.3441021278275805]
我々は、自然言語処理のための機械学習モデルの状態を用いて、新型コロナウイルスの偽ニュース検出のための2段階の自動パイプラインを開発する。
最初のモデルは、新型コロナウイルス(COVID-19)の特定のクレームに関するユーザーのクレームに関する最も関連性の高い事実を検索する、新しい事実チェックアルゴリズムを活用する。
第2のモデルは、クレームと、手動でキュレートされたCOVID-19データセットから取得した真事実の間のテキストの関連性を計算することによって、クレームの真理レベルを検証する。
論文 参考訳(メタデータ) (2020-11-26T11:50:45Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - A Deep Learning Approach for Automatic Detection of Fake News [47.00462375817434]
複数のドメインのオンラインニュースコンテンツにおいて、偽ニュース検出問題を解決するためのディープラーニングに基づく2つのモデルを提案する。
我々は、最近リリースされたFakeNews AMTとCelebrityという2つのデータセットを用いて、フェイクニュース検出のための手法を評価した。
論文 参考訳(メタデータ) (2020-05-11T09:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。