論文の概要: Automated Content Moderation Increases Adherence to Community Guidelines
- arxiv url: http://arxiv.org/abs/2210.10454v3
- Date: Thu, 16 Feb 2023 05:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:54:13.828785
- Title: Automated Content Moderation Increases Adherence to Community Guidelines
- Title(参考訳): 自動コンテンツモデレーションはコミュニティガイドラインの適合性を高める
- Authors: Manoel Horta Ribeiro, Justin Cheng, Robert West
- Abstract要約: ファジィ回帰不連続設計を用いて、自動コンテンツモデレーションがその後のルール破り行動に与える影響を計測した。
その結果,短いスレッドではコメント削除がその後のルール破りの挙動を低下させることがわかった。
以上の結果から,自動コンテンツモデレーションはコミュニティガイドラインの遵守を高めることが示唆された。
- 参考スコア(独自算出の注目度): 16.69856781183336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online social media platforms use automated moderation systems to remove or
reduce the visibility of rule-breaking content. While previous work has
documented the importance of manual content moderation, the effects of
automated content moderation remain largely unknown. Here, in a large study of
Facebook comments (n=412M), we used a fuzzy regression discontinuity design to
measure the impact of automated content moderation on subsequent rule-breaking
behavior (number of comments hidden/deleted) and engagement (number of
additional comments posted). We found that comment deletion decreased
subsequent rule-breaking behavior in shorter threads (20 or fewer comments),
even among other participants, suggesting that the intervention prevented
conversations from derailing. Further, the effect of deletion on the affected
user's subsequent rule-breaking behavior was longer-lived than its effect on
reducing commenting in general, suggesting that users were deterred from
rule-breaking but not from commenting. In contrast, hiding (rather than
deleting) content had small and statistically insignificant effects. Our
results suggest that automated content moderation increases adherence to
community guidelines.
- Abstract(参考訳): オンラインソーシャルメディアプラットフォームは、自動モデレーションシステムを使用して、ルールを破るコンテンツの可視性を排除または削減する。
以前の研究では手動コンテンツモデレーションの重要性が記録されているが、自動コンテンツモデレーションの影響はほとんど分かっていない。
ここでは、Facebookコメントの大規模な調査(n=412M)において、ファジィ回帰不連続設計を使用して、自動コンテンツモデレーションがその後のルール破りの行動(コメントの隠蔽/削除回数)とエンゲージメント(追加コメントの数)に与える影響を測定しました。
その結果,短いスレッド(20以上のコメント)では,コメント削除が後続のルール破断動作を減少させ(20以下のコメント),介入によって会話が脱線することを防ぐことが示唆された。
さらに、削除がユーザーのその後のルール破壊行動に与える影響は、概してコメントを減らす効果よりも長く持続し、ユーザーはルール破壊を妨げられたが、コメントを妨げなかったことを示唆した。
対照的に、隠れている(削除するよりも)コンテンツは小さく、統計的に重要でない効果があった。
この結果から,自動コンテンツモデレーションはコミュニティガイドラインの遵守を高めることが示唆された。
関連論文リスト
- Post Guidance for Online Communities [11.475519304748891]
Post Guideは、ユーザが投稿する投稿のドラフトを作成すると、介入をトリガーするルールを使用して、ユーザのコントリビューションをガイドする。
この独特なコミュニティ固有のプロアクティブでユーザ中心のアプローチは、モデレーターにさらなる負担を課すことなく、ルールへの順守を高めることができる。
論文 参考訳(メタデータ) (2024-11-25T15:32:46Z) - Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster [72.84926097773578]
実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
論文 参考訳(メタデータ) (2024-06-06T14:23:10Z) - Text Attribute Control via Closed-Loop Disentanglement [72.2786244367634]
本稿では,コンテンツ保存性を高めつつ,属性のロバストな制御を実現するための新しい手法を提案する。
本稿では,半教師付きコントラスト学習法を用いて,潜在空間における属性のアンタングル化を促進する。
Yelp Serviceレビューデータセット、Amazon Product Reviewデータセット、GoEmotionsデータセットを含む3つのテキストデータセットの実験を行った。
論文 参考訳(メタデータ) (2023-12-01T01:26:38Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - One of Many: Assessing User-level Effects of Moderation Interventions on
r/The_Donald [1.1041211464412573]
Reddit上でr/The_Donaldを標的としたモデレーション介入によるユーザレベル効果を評価する。
コミュニティレベルの影響が強い介入は、極端なユーザレベルの反応を引き起こすこともわかりました。
この結果から,プラットフォームとコミュニティレベルの影響は,必ずしも個人や小規模なユーザグループの基本的な行動を表すものではないことが示唆された。
論文 参考訳(メタデータ) (2022-09-19T07:46:18Z) - Manipulating Twitter Through Deletions [64.33261764633504]
Twitter上でのインフルエンスキャンペーンの研究は、公開APIを通じて得られたツイートから悪意のあるアクティビティを識別することに大きく依存している。
ここでは,1100万以上のアカウントによる10億以上の削除を含む,異常な削除パターンを網羅的かつ大規模に分析する。
少数のアカウントが毎日大量のツイートを削除していることがわかった。
まず、ツイートのボリューム制限が回避され、特定のアカウントが毎日2600万以上のツイートをネットワークに流すことができる。
第二に、調整されたアカウントのネットワークは、繰り返しのいいね!や、最終的に削除されるコンテンツとは違って、ランキングアルゴリズムを操作できる。
論文 参考訳(メタデータ) (2022-03-25T20:07:08Z) - Make Reddit Great Again: Assessing Community Effects of Moderation
Interventions on r/The_Donald [1.1041211464412573]
r/The_Donaldは、悪質で悪質なオンラインコミュニティとして繰り返し非難された。
2019年6月に隔離され、2020年2月に制限され、2020年6月に最終的に禁止された。
この介入により,問題のあるユーザの活動が大幅に減少したことが判明した。
しかし、この介入によって毒性が増加し、ユーザーはより分極的で事実の少ないニュースを共有するようになった。
論文 参考訳(メタデータ) (2022-01-17T15:09:51Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Do Platform Migrations Compromise Content Moderation? Evidence from
r/The_Donald and r/Incels [20.41491269475746]
本研究は,コミュニティレベルの緩和措置にともなうオンラインコミュニティの進展状況について,大規模な観察研究の結果を報告する。
以上の結果から, いずれの場合も, モデレーションは新プラットフォームにおけるポスト活動を大幅に減少させることが明らかとなった。
それにもかかわらず、研究コミュニティの1つの利用者は、毒性や過激化に関連するシグナルの増加を示した。
論文 参考訳(メタデータ) (2020-10-20T16:03:06Z) - Effects of algorithmic flagging on fairness: quasi-experimental evidence
from Wikipedia [9.885409727425433]
我々は,ウィキペディアにおけるモデレーターの挙動を,ソーシャル信号とアルゴリズムフラグを表示するシステムであるRCFiltersを介するものとして分析する。
アルゴリズム的にフラグ付けされた編集は、特に肯定的な社会的シグナルを持つ編集者によって、より頻繁に再変換されることを示す。
以上の結果から,アルゴリズムのフラグ付けシステムは,いくつかの文脈において公平性を高めることができるが,その関係は複雑かつ不連続であることがわかった。
論文 参考訳(メタデータ) (2020-06-04T20:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。