論文の概要: Supporting verification of news articles with automated search for
semantically similar articles
- arxiv url: http://arxiv.org/abs/2103.15581v1
- Date: Mon, 29 Mar 2021 12:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 21:56:12.143147
- Title: Supporting verification of news articles with automated search for
semantically similar articles
- Title(参考訳): 意味的類似記事の自動検索によるニュース記事の検証支援
- Authors: Vishwani Gupta and Katharina Beckh and Sven Giesselbach and Dennis
Wegener and Tim Wirtz
- Abstract要約: 偽ニュースを扱うための証拠検索手法を提案する。
学習課題は教師なし機械学習問題として定式化される。
われわれのアプローチは、コンセプトドリフトとは無関係である。
機械学習タスクはテキスト内の仮説とは独立している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fake information poses one of the major threats for society in the 21st
century. Identifying misinformation has become a key challenge due to the
amount of fake news that is published daily. Yet, no approach is established
that addresses the dynamics and versatility of fake news editorials. Instead of
classifying content, we propose an evidence retrieval approach to handle fake
news. The learning task is formulated as an unsupervised machine learning
problem. For validation purpose, we provide the user with a set of news
articles from reliable news sources supporting the hypothesis of the news
article in query and the final decision is left to the user. Technically we
propose a two-step process: (i) Aggregation-step: With information extracted
from the given text we query for similar content from reliable news sources.
(ii) Refining-step: We narrow the supporting evidence down by measuring the
semantic distance of the text with the collection from step (i). The distance
is calculated based on Word2Vec and the Word Mover's Distance. In our
experiments, only content that is below a certain distance threshold is
considered as supporting evidence. We find that our approach is agnostic to
concept drifts, i.e. the machine learning task is independent of the hypotheses
in a text. This makes it highly adaptable in times where fake news is as
diverse as classical news is. Our pipeline offers the possibility for further
analysis in the future, such as investigating bias and differences in news
reporting.
- Abstract(参考訳): 偽の情報は21世紀の社会にとって大きな脅威の1つだ。
偽情報の特定は、毎日発行される偽ニュースの量のために重要な課題となっている。
しかし、偽ニュース編集のダイナミクスと汎用性に対処するアプローチは確立されていない。
コンテンツを分類する代わりに,偽ニュースを扱う証拠検索手法を提案する。
学習課題は教師なし機械学習問題として定式化される。
検証の目的のために,質問中のニュース記事の仮説を支持する信頼性のあるニュースソースからのニュース記事のセットをユーザに提供し,最終決定をユーザに委ねる。
技術的には、2段階のプロセスを提案する: (i) 集約ステップ: 与えられたテキストから抽出された情報を用いて、信頼できるニュースソースから類似したコンテンツを問い合わせる。
(II) 精錬工程: 文の意味的距離をステップ(i)からの収集で測定することにより, 支持証拠を絞り込む。
距離は Word2Vec と Word Mover's Distance に基づいて計算される。
実験では,一定の距離しきい値未満のコンテンツのみを根拠として検討した。
われわれのアプローチは、コンセプトドリフトとは無関係である。
機械学習タスクはテキスト内の仮説とは独立している。
これは、フェイクニュースがクラシックニュースと同じくらい多様である場合に非常に適応できる。
当社のパイプラインは,バイアスの調査やニュースレポーティングの相違など,今後さらに分析を行う可能性を提供します。
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - WSDMS: Debunk Fake News via Weakly Supervised Detection of Misinforming
Sentences with Contextualized Social Wisdom [13.92421433941043]
本稿では,文章レベルの誤報を検出する偽ニュース拡散の分野における新たな課題について検討する。
Weakly Supervised Detection of Misinforming Sentences (WSDMS) というモデルを提案する。
実世界の3つのベンチマークでWSDMSを評価し、文レベルと記事レベルの両方でフェイクニュースをデバッキングすることで、既存の最先端のベースラインを上回っていることを実証した。
論文 参考訳(メタデータ) (2023-10-25T12:06:55Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - TieFake: Title-Text Similarity and Emotion-Aware Fake News Detection [15.386007761649251]
本稿では,マルチモーダルな文脈情報と著者の感情を共同でモデル化し,テキストの類似性と感情認識型フェイクニュース検出(TieFake)手法を提案する。
具体的には、BERT と ResNeSt を用いて、テキストや画像の表現を学習し、出版者感情抽出器を用いて、ニュースコンテンツにおける著者の主観的感情をキャプチャする。
論文 参考訳(メタデータ) (2023-04-19T04:47:36Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - A Study of Fake News Reading and Annotating in Social Media Context [1.0499611180329804]
我々は、44名のレイト参加者に、ニュース記事を含む投稿を含むソーシャルメディアフィードをさりげなく読み取らせるという、視線追跡研究を提示した。
第2回では,参加者に対して,これらの記事の真偽を判断するよう求めた。
また、同様のシナリオを用いたフォローアップ定性的な研究についても述べるが、今回は7人の専門家によるフェイクニュースアノテータを用いた。
論文 参考訳(メタデータ) (2021-09-26T08:11:17Z) - Stance Detection with BERT Embeddings for Credibility Analysis of
Information on Social Media [1.7616042687330642]
本稿では,記事の内容とともに,その特徴の1つとして姿勢を用いた偽ニュースを検出するモデルを提案する。
本研究は,自動的特徴抽出とテキストの関連性でコンテンツを解釈する。
実世界のデータセットで行った実験は、我々のモデルが以前の研究より優れており、95.32%の精度で偽ニュースの検出を可能にすることを示している。
論文 参考訳(メタデータ) (2021-05-21T10:46:43Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。