論文の概要: Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster
- arxiv url: http://arxiv.org/abs/2406.04106v1
- Date: Thu, 6 Jun 2024 14:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 14:40:14.302922
- Title: Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster
- Title(参考訳): 説明可能性とヘイトスピーチ: 構造化された説明によってソーシャルメディアモデレーターはより速くなる
- Authors: Agostina Calabrese, Leonardo Neves, Neil Shah, Maarten W. Bos, Björn Ross, Mirella Lapata, Francesco Barbieri,
- Abstract要約: 実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
- 参考スコア(独自算出の注目度): 72.84926097773578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Content moderators play a key role in keeping the conversation on social media healthy. While the high volume of content they need to judge represents a bottleneck to the moderation pipeline, no studies have explored how models could support them to make faster decisions. There is, by now, a vast body of research into detecting hate speech, sometimes explicitly motivated by a desire to help improve content moderation, but published research using real content moderators is scarce. In this work we investigate the effect of explanations on the speed of real-world moderators. Our experiments show that while generic explanations do not affect their speed and are often ignored, structured explanations lower moderators' decision making time by 7.4%.
- Abstract(参考訳): コンテンツモデレーターは、ソーシャルメディア上での会話を健全に保つ上で重要な役割を果たす。
判断するために必要な大量のコンテンツは、モデレーションパイプラインのボトルネックを表しているが、モデルがより高速な意思決定を実現するためにモデルをどのようにサポートするかは、研究されていない。
現在、ヘイトスピーチの検出に関する膨大な研究は、コンテンツのモデレーションを改善するために、しばしば明確に動機付けられたが、実際のコンテンツモデレーターを用いた研究は乏しい。
本研究では,実世界のモデレータの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
関連論文リスト
- Venire: A Machine Learning-Guided Panel Review System for Community Content Moderation [17.673993032146527]
我々は、Reddit上でパネルレビューを行うML支援システムであるVenireを開発した。
Venireは、ログデータに基づいてトレーニングされた機械学習モデルを使用して、モデレーターが最も不一致しやすいケースを特定する。
我々は、Venireが意思決定の一貫性を改善し、遅れた意見の相違を表面化できることを示します。
論文 参考訳(メタデータ) (2024-10-30T20:39:34Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - User Attitudes to Content Moderation in Web Search [49.1574468325115]
我々は、Web検索における誤解を招く可能性のあるコンテンツや攻撃的なコンテンツに適用される様々なモデレーションプラクティスに対するサポートレベルについて検討する。
最も支持されている実践は、誤解を招く可能性のあるコンテンツや不快なコンテンツについてユーザーに知らせることであり、最も支持されていないものは、検索結果を完全に削除することである。
より保守的なユーザーやウェブ検索結果に対する信頼度が低いユーザーは、ウェブ検索におけるコンテンツモデレーションに反する傾向にある。
論文 参考訳(メタデータ) (2023-10-05T10:57:15Z) - BiasX: "Thinking Slow" in Toxic Content Moderation with Explanations of
Implied Social Biases [28.519851740902258]
BiasXは、文の暗黙の社会的バイアスを自由テキストで説明することで、コンテンツモデレーションのセットアップを強化するフレームワークである。
被験者は, 有害物質(非毒性物質)を的確に同定する際の説明から, 有意な利益を享受できることが示唆された。
以上の結果から, より思慮深い毒性抑制を促すために, 自由テキストの説明を用いることが期待できることを示す。
論文 参考訳(メタデータ) (2023-05-23T01:45:18Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - AppealMod: Inducing Friction to Reduce Moderator Workload of Handling
User Appeals [7.898353262890439]
我々は,ヒトのモデレーターが不服申立てをレビューする前に,ユーザに追加情報の提供を求めることによって,上訴プロセスの摩擦を誘発するシステムであるFiceModを設計・構築した。
Redditのコミュニティでは,4ヶ月にわたって2900万人以上のユーザを対象にランダムフィールド実験を実施しました。
本システムは,モデレーターの作業量を削減し,有害な内容への曝露を最小限に抑えつつ,直接のエンゲージメントや代理店へのアピールを尊重する上で有効である。
論文 参考訳(メタデータ) (2023-01-17T20:15:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Moderation Challenges in Voice-based Online Communities on Discord [24.417653462255448]
発見は、音声ベースのオンラインコミュニティが、コンテンツと対話の穏健化の意味を変えることを示唆している。
テキストベースのコミュニティのモデレーターが、破壊的なノイズや音声の襲撃など、馴染みのないルールを破る新しい方法だ。
新しいモデレーション戦略は限定的であり、しばしば聞き取りや最初の印象に基づいており、結果として、モデレーションの失敗から偽の告発まで様々な問題が生じる。
論文 参考訳(メタデータ) (2021-01-13T18:43:22Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。