論文の概要: Multilingual Content Moderation: A Case Study on Reddit
- arxiv url: http://arxiv.org/abs/2302.09618v1
- Date: Sun, 19 Feb 2023 16:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:33:24.414306
- Title: Multilingual Content Moderation: A Case Study on Reddit
- Title(参考訳): 多言語コンテンツモデレーション:Redditを事例として
- Authors: Meng Ye, Karan Sikka, Katherine Atwell, Sabit Hassan, Ajay Divakaran,
Malihe Alikhani
- Abstract要約: Redditのコメント18万件の多言語データセットを導入し,コンテンツモデレーションの課題について検討する。
我々は、基礎となる課題を強調し、関連する研究課題を提案するために、広範な実験分析を行う。
私たちのデータセットと分析は、オートモデレーションの課題と機会に備えるのに役立ちます。
- 参考スコア(独自算出の注目度): 23.949429463013796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Content moderation is the process of flagging content based on pre-defined
platform rules. There has been a growing need for AI moderators to safeguard
users as well as protect the mental health of human moderators from traumatic
content. While prior works have focused on identifying hateful/offensive
language, they are not adequate for meeting the challenges of content
moderation since 1) moderation decisions are based on violation of rules, which
subsumes detection of offensive speech, and 2) such rules often differ across
communities which entails an adaptive solution. We propose to study the
challenges of content moderation by introducing a multilingual dataset of 1.8
Million Reddit comments spanning 56 subreddits in English, German, Spanish and
French. We perform extensive experimental analysis to highlight the underlying
challenges and suggest related research problems such as cross-lingual
transfer, learning under label noise (human biases), transfer of moderation
models, and predicting the violated rule. Our dataset and analysis can help
better prepare for the challenges and opportunities of auto moderation.
- Abstract(参考訳): コンテンツモデレーションは、事前に定義されたプラットフォームルールに基づいてコンテンツをフラグするプロセスである。
AIモデレーターは、ユーザーを保護し、人間のモデレーターのメンタルヘルスをトラウマコンテンツから保護する必要性が高まっている。
先行研究はヘイトフル/検閲言語を特定することに重点を置いているが、コンテンツモデレーションの課題を満たすには不十分である。
1)モデレーション決定は、攻撃的音声の検出を前提とした規則違反に基づく。
2)このような規則はしばしば適応型解を伴うコミュニティ間で異なる。
我々は、英語、ドイツ語、スペイン語、フランス語の56のサブレディットにまたがる1.8万のRedditコメントの多言語データセットを導入することで、コンテンツモデレーションの課題について検討する。
基礎となる課題に注目し,言語間移動,ラベル雑音下での学習(人間のバイアス),モデレーションモデルの伝達,違反規則の予測など,関連する研究課題を提案する。
私たちのデータセットと分析は、オートモデレーションの課題と機会に備えるのに役立ちます。
関連論文リスト
- Venire: A Machine Learning-Guided Panel Review System for Community Content Moderation [17.673993032146527]
我々は、Reddit上でパネルレビューを行うML支援システムであるVenireを開発した。
Venireは、ログデータに基づいてトレーニングされた機械学習モデルを使用して、モデレーターが最も不一致しやすいケースを特定する。
我々は、Venireが意思決定の一貫性を改善し、遅れた意見の相違を表面化できることを示します。
論文 参考訳(メタデータ) (2024-10-30T20:39:34Z) - Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster [72.84926097773578]
実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
論文 参考訳(メタデータ) (2024-06-06T14:23:10Z) - Algorithmic Arbitrariness in Content Moderation [1.4849645397321183]
コンテンツモデレーションツールは、サンプルを任意に有毒と分類する方法を示す。
我々は、国際公民権条約(ICCPR)が定める人権の観点からこれらの知見について議論する。
本研究は、コンテンツモデレーションアプリケーションにおいて、任意性の透明性を識別し、向上する必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-02-26T19:27:00Z) - SADAS: A Dialogue Assistant System Towards Remediating Norm Violations
in Bilingual Socio-Cultural Conversations [56.31816995795216]
SADAS(Socially-Aware Dialogue Assistant System)は、会話が敬意と理解で広がることを保証するためのシステムである。
本システムの新しいアーキテクチャは,(1)対話に存在する規範のカテゴリを特定すること,(2)潜在的な規範違反を検出すること,(3)違反の深刻さを評価すること,(4)違反の是正を目的とした対策を実施すること,を含む。
論文 参考訳(メタデータ) (2024-01-29T08:54:21Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - User Attitudes to Content Moderation in Web Search [49.1574468325115]
我々は、Web検索における誤解を招く可能性のあるコンテンツや攻撃的なコンテンツに適用される様々なモデレーションプラクティスに対するサポートレベルについて検討する。
最も支持されている実践は、誤解を招く可能性のあるコンテンツや不快なコンテンツについてユーザーに知らせることであり、最も支持されていないものは、検索結果を完全に削除することである。
より保守的なユーザーやウェブ検索結果に対する信頼度が低いユーザーは、ウェブ検索におけるコンテンツモデレーションに反する傾向にある。
論文 参考訳(メタデータ) (2023-10-05T10:57:15Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Moderation Challenges in Voice-based Online Communities on Discord [24.417653462255448]
発見は、音声ベースのオンラインコミュニティが、コンテンツと対話の穏健化の意味を変えることを示唆している。
テキストベースのコミュニティのモデレーターが、破壊的なノイズや音声の襲撃など、馴染みのないルールを破る新しい方法だ。
新しいモデレーション戦略は限定的であり、しばしば聞き取りや最初の印象に基づいており、結果として、モデレーションの失敗から偽の告発まで様々な問題が生じる。
論文 参考訳(メタデータ) (2021-01-13T18:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。