論文の概要: Community Notes are Vulnerable to Rater Bias and Manipulation
- arxiv url: http://arxiv.org/abs/2511.02615v1
- Date: Tue, 04 Nov 2025 14:39:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.077971
- Title: Community Notes are Vulnerable to Rater Bias and Manipulation
- Title(参考訳): コミュニティノートは遅延バイアスと操作に脆弱である
- Authors: Bao Tran Truong, Siqi Wu, Alessandro Flammini, Filippo Menczer, Alexander J. Stewart,
- Abstract要約: 本研究では,現実的なレーダやノートの振る舞いをモデル化したシミュレーションデータを用いて,コミュニティノートアルゴリズムの評価を行う。
このアルゴリズムは、真に有用な音符のかなりの部分を抑制することができ、レーダバイアスに非常に敏感である。
- 参考スコア(独自算出の注目度): 75.34858521118305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms increasingly rely on crowdsourced moderation systems like Community Notes to combat misinformation at scale. However, these systems face challenges from rater bias and potential manipulation, which may undermine their effectiveness. Here we systematically evaluate the Community Notes algorithm using simulated data that models realistic rater and note behaviors, quantifying error rates in publishing helpful versus unhelpful notes. We find that the algorithm suppresses a substantial fraction of genuinely helpful notes and is highly sensitive to rater biases, including polarization and in-group preferences. Moreover, a small minority (5--20\%) of bad raters can strategically suppress targeted helpful notes, effectively censoring reliable information. These findings suggest that while community-driven moderation may offer scalability, its vulnerability to bias and manipulation raises concerns about reliability and trustworthiness, highlighting the need for improved mechanisms to safeguard the integrity of crowdsourced fact-checking.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、大規模な誤情報に対抗するために、コミュニティノートのようなクラウドソースによるモデレーションシステムにますます依存している。
しかし、これらのシステムはレーダバイアスや潜在的な操作による課題に直面しており、その効果を損なう可能性がある。
本稿では,現実的なレーダとノートの振る舞いをモデル化したシミュレーションデータを用いて,コミュニティノートのアルゴリズムを体系的に評価する。
このアルゴリズムは真に有用な音符のかなりの部分を抑制することができ、偏光やグループ内選好を含むレーダバイアスに非常に敏感である。
さらに、少数の少数派(5-20-%)が、標的となる有用なノートを戦略的に抑制し、信頼できる情報を効果的に検閲することができる。
これらの結果は、コミュニティ主導のモデレーションはスケーラビリティを提供するかもしれないが、バイアスや操作に対する脆弱性は信頼性と信頼性に関する懸念を喚起し、クラウドソーシングされた事実チェックの完全性を保護するための改善されたメカニズムの必要性を強調している。
関連論文リスト
- Conf-GNNRec: Quantifying and Calibrating the Prediction Confidence for GNN-based Recommendation Methods [16.528524630468773]
我々は,GNNに基づくレコメンデーション(Conf-GNNRec)の予測信頼度を定量化し,キャリブレーションする新しい手法を提案する。
具体的には,ユーザのパーソナライゼーションに基づいて過度な評価を動的に調整し,過度な評価を緩和する評価校正手法を提案する。
また、陰性サンプルの過度な信頼度を低減し、推薦性能を効果的に向上する信頼損失関数を設計する。
論文 参考訳(メタデータ) (2025-05-22T09:48:17Z) - Uncertainty in Repeated Implicit Feedback as a Measure of Reliability [12.441205946216192]
暗黙的かつ明示的なフィードバックは、人間の相互作用の変動によってノイズを引き起こす。
協調フィルタリングでは、これらの信号がユーザとアイテムの類似性を決定するため、相互作用信号の信頼性が重要となる。
我々は,反復パターンがユーザの関心に影響を及ぼす重要な要因とどのように交わるかを分析し,関連する不確実性を定量化する手法を開発した。
論文 参考訳(メタデータ) (2025-05-05T09:18:47Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。