論文の概要: Empowering Fake-News Mitigation: Insights from Sharers' Social Media
Post-Histories
- arxiv url: http://arxiv.org/abs/2203.10560v2
- Date: Mon, 18 Sep 2023 12:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 02:02:02.066514
- Title: Empowering Fake-News Mitigation: Insights from Sharers' Social Media
Post-Histories
- Title(参考訳): フェイクニュースの軽減を力づける - 共有者のソーシャルメディアポストヒストリーからの洞察
- Authors: Verena Schoenmueller, Simon J. Blanchard and Gita V. Johar
- Abstract要約: 我々は,消費者自身のソーシャルメディアポストヒストリーが,偽ニュースへのリンク共有につながる要因を研究するために,未利用のデータソースであることを提案する。
本研究は, マーケティング者, 偽情報学者, 実践者に対して, 偽情報の拡散を抑えるために, 後史を用いて理論を開発し, 介入をテストすることを奨励するものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Misinformation is a global concern and limiting its spread is critical for
protecting democracy, public health, and consumers. We propose that consumers'
own social media post-histories are an underutilized data source to study what
leads them to share links to fake-news. In Study 1, we explore how textual cues
extracted from post-histories distinguish fake-news sharers from random social
media users and others in the misinformation ecosystem. Among other results, we
find across two datasets that fake-news sharers use more words related to
anger, religion and power. In Study 2, we show that adding textual cues from
post-histories improves the accuracy of models to predict who is likely to
share fake-news. In Study 3, we provide a preliminary test of two mitigation
strategies deduced from Study 1 - activating religious values and reducing
anger - and find that they reduce fake-news sharing and sharing more generally.
In Study 4, we combine survey responses with users' verified Twitter
post-histories and show that using empowering language in a fact-checking
browser extension ad increases download intentions. Our research encourages
marketers, misinformation scholars, and practitioners to use post-histories to
develop theories and test interventions to reduce the spread of misinformation.
- Abstract(参考訳): 誤情報は世界的な懸念であり、その拡散を制限することは民主主義、公衆衛生、消費者を保護する上で重要である。
我々は,消費者自身のソーシャルメディアポストヒストリーが,偽ニュースへのリンク共有につながる要因を研究するために,未利用のデータソースであることを提案する。
研究1では,ポストヒストリーから抽出したテキストの手がかりが,偽ニュースの共有者とソーシャルメディアのランダムな利用者とを誤情報エコシステムの中で区別する方法について検討した。
その結果、偽のニュース共有者が怒り、宗教、権力に関連する言葉を使う2つのデータセットが見つかった。
研究2では,ポストヒストリーからテキストの手がかりを加えることで,モデルの精度が向上し,誰が偽ニュースを共有するかを予測する。
研究3では,宗教価値観の活性化と怒りの低減という,研究1から導き出された2つの緩和戦略を予備的に検証し,フェイクニュースの共有と共有をより一般的なものにする。
調査4では,調査回答とユーザの確認されたTwitterポストヒストリーを組み合わせることで,ファクトチェックブラウザ拡張広告におけるエンパワーメント言語の使用がダウンロード意図を増大させることを示す。
本研究は, マーケター, 誤情報学者, 実践者に対して, ポストヒストリーを用いて理論を展開し, 誤情報の拡散を減らすためのテスト介入を行うことを奨励する。
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - FakeNewsLab: Experimental Study on Biases and Pitfalls Preventing us
from Distinguishing True from False News [0.2741266294612776]
この研究は、偽ニュースデータセットを構築する際に、人間のアノテータに影響を与える一連の落とし穴を強調している。
また、ユーザーが再共有する前に記事全体を読むことを推奨する、AIの一般的な理論的根拠にも異議を唱えている。
論文 参考訳(メタデータ) (2021-10-22T12:02:16Z) - A Study of Fake News Reading and Annotating in Social Media Context [1.0499611180329804]
我々は、44名のレイト参加者に、ニュース記事を含む投稿を含むソーシャルメディアフィードをさりげなく読み取らせるという、視線追跡研究を提示した。
第2回では,参加者に対して,これらの記事の真偽を判断するよう求めた。
また、同様のシナリオを用いたフォローアップ定性的な研究についても述べるが、今回は7人の専門家によるフェイクニュースアノテータを用いた。
論文 参考訳(メタデータ) (2021-09-26T08:11:17Z) - Profiling Fake News Spreaders on Social Media through Psychological and
Motivational Factors [26.942545715296983]
ソーシャルメディア上でのフェイクニューススプレッシャーの特徴と動機要因について検討した。
次に、フェイクニューススプレッドラーが他のユーザーと異なる特徴を示すことができるかどうかを判定する一連の実験を行う。
論文 参考訳(メタデータ) (2021-08-24T20:27:38Z) - Stance Detection with BERT Embeddings for Credibility Analysis of
Information on Social Media [1.7616042687330642]
本稿では,記事の内容とともに,その特徴の1つとして姿勢を用いた偽ニュースを検出するモデルを提案する。
本研究は,自動的特徴抽出とテキストの関連性でコンテンツを解釈する。
実世界のデータセットで行った実験は、我々のモデルが以前の研究より優れており、95.32%の精度で偽ニュースの検出を可能にすることを示している。
論文 参考訳(メタデータ) (2021-05-21T10:46:43Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。