論文の概要: Social media algorithms can curb misinformation, but do they?
- arxiv url: http://arxiv.org/abs/2409.18393v1
- Date: Fri, 27 Sep 2024 02:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 06:31:22.392460
- Title: Social media algorithms can curb misinformation, but do they?
- Title(参考訳): ソーシャルメディアのアルゴリズムは誤報を抑えることができるが、そうだろうか?
- Authors: Chhandak Bagchi, Filippo Menczer, Jennifer Lundquist, Monideepa Tarafdar, Anthony Paik, Przemyslaw A. Grabowicz,
- Abstract要約: 最近の記事では、FacebookのニュースフィードアルゴリズムがFacebookユーザー間での誤情報や政治的情報への露出に与える影響を推定している。
ここでは、2020年の米大統領選挙後のFacebookのニュースフィードアルゴリズムの一時的な変更が、有権者不正情報の拡散を減少させるように設計されていることを実証する。
この問題は、読者が研究の結果を誤って解釈し、研究期間外に使われるFacebookのニュースフィードアルゴリズムが、逆の時系列フィードと比較して政治的誤った情報を緩和していると結論づけたのかもしれない。
- 参考スコア(独自算出の注目度): 2.092411950869557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A recent article in $\textit{Science}$ by Guess et al. estimated the effect of Facebook's news feed algorithm on exposure to misinformation and political information among Facebook users. However, its reporting and conclusions did not account for a series of temporary emergency changes to Facebook's news feed algorithm in the wake of the 2020 U.S. presidential election that were designed to diminish the spread of voter-fraud misinformation. Here, we demonstrate that these emergency measures systematically reduced the amount of misinformation in the control group of the study, which was using the news feed algorithm. This issue may have led readers to misinterpret the results of the study and to conclude that the Facebook news feed algorithm used outside of the study period mitigates political misinformation as compared to reverse chronological feed.
- Abstract(参考訳): Guessらによる$\textit{Science}$の最近の記事は、FacebookのニュースフィードアルゴリズムがFacebookユーザーの誤情報や政治的情報にさらされることに与える影響を推定している。
しかし、その報告と結論は、2020年アメリカ合衆国大統領選挙の後にFacebookのニュースフィードアルゴリズムに一時的な変更が相次いだことを説明していない。
ここでは,これらの緊急対策が,ニュースフィードアルゴリズムを用いた研究の制御グループにおける誤情報量を体系的に減少させることを実証する。
この問題は、読者が研究の結果を誤って解釈し、研究期間外に使われるFacebookのニュースフィードアルゴリズムが、逆の時系列フィードと比較して政治的誤った情報を緩和していると結論づけたのかもしれない。
関連論文リスト
- Characteristics of Political Misinformation Over the Past Decade [0.0]
本稿は、自然言語処理を用いて、12年間にわたる政治的誤報の共通の特徴を見出す。
その結果,近年は誤報が飛躍的に増加しており,テキストや画像の一次情報モダリティを持つソースから情報を共有する傾向が強まっていることが示唆された。
誤報を表す文には、正確な情報よりも否定的な感情が含まれていることが判明した。
論文 参考訳(メタデータ) (2024-11-09T09:12:39Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - A Proposed Bi-LSTM Method to Fake News Detection [0.0]
偽ニュースは、アメリカ合衆国大統領選挙の結果に影響を与える決定的な要因となった。
Bi-LSTMは、ニュースが偽物か偽物かを判定するために適用された。
モデルの作成と実行の後、トレーニングデータによるモデル精度が84%、F1-macroスコアが62.0に達した。
論文 参考訳(メタデータ) (2022-06-15T06:36:42Z) - Algorithmic Amplification of Politics on Twitter [17.631887805091733]
Twitterプラットフォーム上で大規模なランダム化実験を行った結果,定量的な証拠が得られた。
7カ国の政党から選出された議員によるつぶやきについて検討した。
7ヶ国中6ヶ国で、主流の政治的権利は、主流の政治的左翼よりも高いアルゴリズム的増幅を享受している。
論文 参考訳(メタデータ) (2021-10-21T09:25:39Z) - A Study of Fake News Reading and Annotating in Social Media Context [1.0499611180329804]
我々は、44名のレイト参加者に、ニュース記事を含む投稿を含むソーシャルメディアフィードをさりげなく読み取らせるという、視線追跡研究を提示した。
第2回では,参加者に対して,これらの記事の真偽を判断するよう求めた。
また、同様のシナリオを用いたフォローアップ定性的な研究についても述べるが、今回は7人の専門家によるフェイクニュースアノテータを用いた。
論文 参考訳(メタデータ) (2021-09-26T08:11:17Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Misinfo Belief Frames: A Case Study on Covid & Climate News [49.979419711713795]
読者がニュースの信頼性や誤った情報の影響をどのように認識するかを理解するための形式主義を提案する。
23.5kの見出しに66kの推論データセットであるMisinfo Belief Frames (MBF) corpusを紹介する。
大規模言語モデルを用いて誤情報フレームを予測した結果,機械生成推論がニュース見出しに対する読者の信頼に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:50:11Z) - Where Are the Facts? Searching for Fact-checked Information to Alleviate
the Spread of Fake News [9.68145635795782]
本稿では,オンライン利用者が投稿したオリジナルツイート(誤情報を含む可能性がある)の内容に対処するファクトチェック記事を検索する新しい枠組みを提案する。
この検索は偽ニュースのポスターやオンラインユーザーに偽ニュースの拡散を防ぎ、ソーシャルメディア上で検証済みのコンテンツを拡大させる。
本フレームワークでは,テキストと画像の両方を用いて事実チェック記事の検索を行い,実世界のデータセット上で有望な結果を得る。
論文 参考訳(メタデータ) (2020-10-07T04:55:34Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。