論文の概要: FakeNewsLab: Experimental Study on Biases and Pitfalls Preventing us
from Distinguishing True from False News
- arxiv url: http://arxiv.org/abs/2110.11729v2
- Date: Sat, 8 Oct 2022 09:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 19:33:13.328692
- Title: FakeNewsLab: Experimental Study on Biases and Pitfalls Preventing us
from Distinguishing True from False News
- Title(参考訳): FakeNewsLab: 偽ニュースから真実を消し去るのを防ぐバイアスと落とし穴の実験的研究
- Authors: Giancarlo Ruffo, Alfonso Semeraro
- Abstract要約: この研究は、偽ニュースデータセットを構築する際に、人間のアノテータに影響を与える一連の落とし穴を強調している。
また、ユーザーが再共有する前に記事全体を読むことを推奨する、AIの一般的な理論的根拠にも異議を唱えている。
- 参考スコア(独自算出の注目度): 0.2741266294612776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Misinformation posting and spreading in Social Media is ignited by personal
decisions on the truthfulness of news that may cause wide and deep cascades at
a large scale in a fraction of minutes. When individuals are exposed to
information, they usually take a few seconds to decide if the content (or the
source) is reliable, and eventually to share it. Although the opportunity to
verify the rumour is often just one click away, many users fail to make a
correct evaluation. We studied this phenomenon with a web-based questionnaire
that was compiled by 7,298 different volunteers, where the participants were
asked to mark 20 news as true or false. Interestingly, false news is correctly
identified more frequently than true news, but showing the full article instead
of just the title, surprisingly, does not increase general accuracy. Also,
displaying the original source of the news may contribute to mislead the user
in some cases, while a genuine wisdom of the crowd can positively assist
individuals' ability to classify correctly. Finally, participants whose
browsing activity suggests a parallel fact-checking activity, show better
performance and declare themselves as young adults. This work highlights a
series of pitfalls that can influence human annotators when building false news
datasets, which in turn fuel the research on the automated fake news detection;
furthermore, these findings challenge the common rationale of AI that suggest
users to read the full article before re-sharing.
- Abstract(参考訳): ソーシャルメディア上での誤情報の投稿や拡散は、ニュースの真実性に関する個人的な判断によって、ほんの数分で大規模かつ深いカスケードを引き起こす可能性がある。
個人が情報にさらされると、コンテンツ(あるいはソース)が信頼できるかどうかを判断し、最終的に共有するには、通常は数秒かかる。
噂を検証する機会は、しばしばワンクリックで終わるが、多くのユーザーは正しい評価をすることができない。
この現象を7,298名のボランティアによるwebベースのアンケートで検討し,20件のニュースを真偽か偽かを問うた。
興味深いことに、偽ニュースは真のニュースよりも頻繁に正しく識別されるが、タイトルだけでなく記事全体を表示することは、驚くほど、一般的な正確さを増さない。
また、ニュースの原情報源を表示することでユーザーを誤解させる場合もあるが、群衆の真の知恵は個人が正しく分類する能力を積極的に支援することができる。
最後に、ブラウジング活動が並列なファクトチェックアクティビティを示唆する参加者は、よりよいパフォーマンスを示し、若い大人であると宣言する。
この研究は、偽ニュースデータセットを構築する際に人間の注釈に影響を及ぼす一連の落とし穴を強調しており、それによって、自動化された偽ニュース検出の研究が促進される。
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Who Shares Fake News? Uncovering Insights from Social Media Users' Post Histories [0.0]
本稿では,ソーシャルメディア利用者の投稿履歴が,偽ニュース共有の研究にあまり使われていないことを提案する。
偽ニュースの共有者を識別し、最も偽ニュースを共有する可能性が最も高いものを予測し、介入を構築するための有望な構成物を特定する。
論文 参考訳(メタデータ) (2022-03-20T14:26:20Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - A Study of Fake News Reading and Annotating in Social Media Context [1.0499611180329804]
我々は、44名のレイト参加者に、ニュース記事を含む投稿を含むソーシャルメディアフィードをさりげなく読み取らせるという、視線追跡研究を提示した。
第2回では,参加者に対して,これらの記事の真偽を判断するよう求めた。
また、同様のシナリオを用いたフォローアップ定性的な研究についても述べるが、今回は7人の専門家によるフェイクニュースアノテータを用いた。
論文 参考訳(メタデータ) (2021-09-26T08:11:17Z) - Profiling Fake News Spreaders on Social Media through Psychological and
Motivational Factors [26.942545715296983]
ソーシャルメディア上でのフェイクニューススプレッシャーの特徴と動機要因について検討した。
次に、フェイクニューススプレッドラーが他のユーザーと異なる特徴を示すことができるかどうかを判定する一連の実験を行う。
論文 参考訳(メタデータ) (2021-08-24T20:27:38Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Early Detection of Fake News by Utilizing the Credibility of News,
Publishers, and Users Based on Weakly Supervised Learning [23.96230360460216]
本稿では,ニュースコンテンツとパブリッシャーとユーザの関係を結合した構造対応型マルチヘッド・アテンション・ネットワーク(SMAN)を提案する。
SMANは、最新のモデルよりもはるかに高速である91%以上の精度で4時間で偽のニュースを検出することができます。
論文 参考訳(メタデータ) (2020-12-08T05:53:33Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。