論文の概要: Community Moderation and the New Epistemology of Fact Checking on Social Media
- arxiv url: http://arxiv.org/abs/2505.20067v1
- Date: Mon, 26 May 2025 14:50:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.528035
- Title: Community Moderation and the New Epistemology of Fact Checking on Social Media
- Title(参考訳): コミュニティ・モデレーションとソーシャルメディアにおけるFact Checkingの新たな認識
- Authors: Isabelle Augenstein, Michiel Bakker, Tanmoy Chakraborty, David Corney, Emilio Ferrara, Iryna Gurevych, Scott Hale, Eduard Hovy, Heng Ji, Irene Larraz, Filippo Menczer, Preslav Nakov, Paolo Papotti, Dhruv Sahnan, Greta Warren, Giovanni Zagni,
- Abstract要約: ソーシャルメディアプラットフォームは伝統的に、誤解を招くコンテンツを識別しフラグを立てるために、独立した事実チェック組織に依存してきた。
X(元Twitter)とMetaは、クラウドソースのファクトチェックの独自のバージョンを立ち上げて、コミュニティ主導のコンテンツモデレーションに移行した。
主要なプラットフォーム間での誤情報検出の現在のアプローチについて検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
- 参考スコア(独自算出の注目度): 124.26693978503339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms have traditionally relied on internal moderation teams and partnerships with independent fact-checking organizations to identify and flag misleading content. Recently, however, platforms including X (formerly Twitter) and Meta have shifted towards community-driven content moderation by launching their own versions of crowd-sourced fact-checking -- Community Notes. If effectively scaled and governed, such crowd-checking initiatives have the potential to combat misinformation with increased scale and speed as successfully as community-driven efforts once did with spam. Nevertheless, general content moderation, especially for misinformation, is inherently more complex. Public perceptions of truth are often shaped by personal biases, political leanings, and cultural contexts, complicating consensus on what constitutes misleading content. This suggests that community efforts, while valuable, cannot replace the indispensable role of professional fact-checkers. Here we systemically examine the current approaches to misinformation detection across major platforms, explore the emerging role of community-driven moderation, and critically evaluate both the promises and challenges of crowd-checking at scale.
- Abstract(参考訳): ソーシャルメディアプラットフォームは伝統的に、内部のモデレーションチームと独立したファクトチェック組織とのパートナーシップを利用して、誤解を招くコンテンツを識別し、フラグを立ててきた。
しかし最近、X(元Twitter)やMeta(メタ)といったプラットフォームは、クラウドソースによるファクトチェックの独自のバージョンであるCommunity Notesを立ち上げて、コミュニティ主導のコンテンツモデレーションへと移行した。
もし効果的に規模を拡大し、支配すれば、こうしたクラウドチェックのイニシアチブは、かつてスパムにかかわっていたコミュニティ主導の取り組みと同様に、スケールとスピードで誤情報と戦う可能性がある。
それでも、一般的な内容のモデレーション、特に誤情報については、本質的により複雑である。
真実に対する大衆の認識は、しばしば個人的な偏見、政治的傾向、文化的な文脈によって形成され、誤解を招くコンテンツを構成するものについてのコンセンサスを複雑にしている。
このことは、コミュニティの努力が価値あるものの、プロのファクトチェッカーにとって欠かせない役割を置き換えることはできないことを示唆している。
ここでは,主要なプラットフォーム間での誤情報検出の現在のアプローチを体系的に検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
関連論文リスト
- Dynamics of collective minds in online communities [1.747623282473278]
オンラインニュースコミュニティにおける集団精神が、様々な編集課題設定プラクティスやコミュニティダイナミクスの側面にどのように影響されるかを示す。
我々は、アメリカの5つのオンラインニュースプラットフォームにおける4億件のコメントと大規模な調査から得られたデータを校正し、検証し、集合心の計算モデルを開発する。
論文 参考訳(メタデータ) (2025-04-10T22:22:40Z) - Can Community Notes Replace Professional Fact-Checkers? [49.5332225129956]
Twitter/XとMetaによるポリシーの変更は、ファクトチェック組織とのパートナーシップから移行したことを示している。
分析の結果,コミュニティノートでは,過去の報告の最大5倍のファクトチェックソースを引用していることがわかった。
論文 参考訳(メタデータ) (2025-02-19T22:26:39Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - What Makes Online Communities 'Better'? Measuring Values, Consensus, and
Conflict across Thousands of Subreddits [13.585903247791094]
我々は,2,151種類のサブredditで2,769人のredditユーザを含む,コミュニティ価値の最初の大規模調査を通じて,コミュニティ価値を測定した。
コミュニティメンバーがコミュニティの安全について意見が一致していないことを示し、長年のコミュニティは、新しいコミュニティよりも信頼性に30.1%重きを置いていることを示している。
これらの発見は、脆弱なコミュニティメンバーを保護するために注意が必要であることを示唆するなど、重要な意味を持つ。
論文 参考訳(メタデータ) (2021-11-10T18:31:22Z) - The Impact of Disinformation on a Controversial Debate on Social Media [1.299941371793082]
われわれは、移民に関するイタリアの議論において、Twitter上での偽情報の存在がいかに広まっているかを研究する。
TwitterユーザーをtextitUntrustworthinessスコアで特徴付けることで、このような悪い情報消費習慣がユーザー間で均等に分散されていないことが分かる。
論文 参考訳(メタデータ) (2021-06-30T10:29:07Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - An Agenda for Disinformation Research [3.083055913556838]
情報化は民主主義の基本的な基盤である社会政治機関への信頼を損なう。
偽り、誤解を招いたり、不正確な情報を欺く意図で配信することは、アメリカ合衆国にとって現実的な脅威である。
この成長する課題を理解し、対処するために、これらの余裕を活用するために、新しいツールとアプローチを開発する必要があります。
論文 参考訳(メタデータ) (2020-12-15T19:32:36Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。