論文の概要: Investigating the heterogenous effects of a massive content moderation intervention via Difference-in-Differences
- arxiv url: http://arxiv.org/abs/2411.04037v3
- Date: Mon, 02 Dec 2024 12:51:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:55:26.360480
- Title: Investigating the heterogenous effects of a massive content moderation intervention via Difference-in-Differences
- Title(参考訳): 差分差分法による大規模コンテンツモデレーション介入の異種性効果の検討
- Authors: Lorenzo Cima, Benedetta Tessa, Stefano Cresci, Amaury Trujillo, Marco Avvenuti,
- Abstract要約: 我々は,The Great Banの効果について,因果推論手法を適用した。
約34万のユーザーが共有した5300万のコメントを分析します。
- 参考スコア(独自算出の注目度): 0.6918368994425961
- License:
- Abstract: In today's online environments, users encounter harm and abuse on a daily basis. Therefore, content moderation is crucial to ensure their safety and well-being. However, the effectiveness of many moderation interventions is still uncertain. Here, we apply a causal inference approach to shed light on the effectiveness of The Great Ban, a massive social media deplatforming intervention. We analyze 53M comments shared by nearly 34K users, providing in-depth results on both the intended and unintended consequences of the ban. Our causal analyses reveal that 15.6% of the moderated users abandoned the platform while the remaining ones decreased their overall toxicity by 4.1%. Nonetheless, a subset of those users increased their toxicity by 70% after the intervention. However, the increases in toxicity did not lead to marked increases in activity or engagement, meaning that the most toxic users had an overall limited impact. Our findings bring to light new insights on the effectiveness of deplatforming moderation interventions. Furthermore, they also contribute to informing future content moderation strategies.
- Abstract(参考訳): 今日のオンライン環境では、ユーザーは日常的に害や虐待に遭遇する。
そのため、コンテンツのモデレーションは、安全と幸福を確保するために不可欠である。
しかし、多くのモデレーション介入の有効性はまだ不明である。
ここでは、ソーシャルメディアの大規模な非プラットフォーム介入であるThe Great Banの有効性について、因果推論アプローチを適用した。
約34Kユーザーが共有する5300万のコメントを分析し、禁止の意図された結果と意図しない結果の両方について詳細な結果を提供する。
原因分析の結果,中等度の利用者の15.6%がプラットフォームを放棄し,残りの利用者は全体の毒性を4.1%減少させた。
それでも、介入後、一部の利用者は毒性を70%上昇させた。
しかし、毒性の増加は、活動やエンゲージメントの顕著な増加には至らなかった。
以上の結果から,モデレーション介入の有効性に関する新たな知見が得られた。
さらに、将来的なコンテンツモデレーション戦略の達成にも貢献している。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Beyond Trial-and-Error: Predicting User Abandonment After a Moderation Intervention [0.6918368994425961]
本稿では,Redditにおけるモデレーション介入の効果を予測する新しいタスクを提案する。
ユーザの活動、毒性、関係性、書き込みスタイルに関する情報を伝達する142の機能のセットを計算するために、138万の投稿のデータセットを使用します。
本研究は,モデレーション介入の効果を予測できる可能性を示し,予測コンテンツのモデレーションにおける新たな研究方向の道を開くものである。
論文 参考訳(メタデータ) (2024-04-23T08:52:41Z) - The Great Ban: Efficacy and Unintended Consequences of a Massive Deplatforming Operation on Reddit [0.7422344184734279]
Reddit上で2000近いコミュニティに影響を与えた大規模なデプラットフォーム運用であるThe Great Banの有効性を評価した。
14ヶ月の間に17万のユーザーが投稿した16万のコメントを分析して、望ましい結果とそうでない結果の両方について、微妙な結果を提供する。
論文 参考訳(メタデータ) (2024-01-20T15:21:37Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - One of Many: Assessing User-level Effects of Moderation Interventions on
r/The_Donald [1.1041211464412573]
Reddit上でr/The_Donaldを標的としたモデレーション介入によるユーザレベル効果を評価する。
コミュニティレベルの影響が強い介入は、極端なユーザレベルの反応を引き起こすこともわかりました。
この結果から,プラットフォームとコミュニティレベルの影響は,必ずしも個人や小規模なユーザグループの基本的な行動を表すものではないことが示唆された。
論文 参考訳(メタデータ) (2022-09-19T07:46:18Z) - Make Reddit Great Again: Assessing Community Effects of Moderation
Interventions on r/The_Donald [1.1041211464412573]
r/The_Donaldは、悪質で悪質なオンラインコミュニティとして繰り返し非難された。
2019年6月に隔離され、2020年2月に制限され、2020年6月に最終的に禁止された。
この介入により,問題のあるユーザの活動が大幅に減少したことが判明した。
しかし、この介入によって毒性が増加し、ユーザーはより分極的で事実の少ないニュースを共有するようになった。
論文 参考訳(メタデータ) (2022-01-17T15:09:51Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Do Platform Migrations Compromise Content Moderation? Evidence from
r/The_Donald and r/Incels [20.41491269475746]
本研究は,コミュニティレベルの緩和措置にともなうオンラインコミュニティの進展状況について,大規模な観察研究の結果を報告する。
以上の結果から, いずれの場合も, モデレーションは新プラットフォームにおけるポスト活動を大幅に減少させることが明らかとなった。
それにもかかわらず、研究コミュニティの1つの利用者は、毒性や過激化に関連するシグナルの増加を示した。
論文 参考訳(メタデータ) (2020-10-20T16:03:06Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。