論文の概要: The Gray Area: Characterizing Moderator Disagreement on Reddit
- arxiv url: http://arxiv.org/abs/2601.01620v1
- Date: Sun, 04 Jan 2026 17:59:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.57483
- Title: The Gray Area: Characterizing Moderator Disagreement on Reddit
- Title(参考訳): Gray Area:Redditでモデレーターの診断を特徴付ける
- Authors: Shayan Alipour, Shruti Phadke, Seyed Shahabeddin Mousavi, Amirhossein Afsharrad, Morteza Zihayat, Mattia Samory,
- Abstract要約: 1対7の調停事件は、調停者の間で争われている。
グレーエリアのケースのほぼ半数は、自動モデレーション決定を伴っていた。
我々は、モデレーションプロセスの監督において、専門家の人間モデレーターが果たす重要な役割を強調します。
- 参考スコア(独自算出の注目度): 4.508230455103701
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Volunteer moderators play a crucial role in sustaining online dialogue, but they often disagree about what should or should not be allowed. In this paper, we study the complexity of content moderation with a focus on disagreements between moderators, which we term the ``gray area'' of moderation. Leveraging 5 years and 4.3 million moderation log entries from 24 subreddits of different topics and sizes, we characterize how gray area, or disputed cases, differ from undisputed cases. We show that one-in-seven moderation cases are disputed among moderators, often addressing transgressions where users' intent is not directly legible, such as in trolling and brigading, as well as tensions around community governance. This is concerning, as almost half of all gray area cases involved automated moderation decisions. Through information-theoretic evaluations, we demonstrate that gray area cases are inherently harder to adjudicate than undisputed cases and show that state-of-the-art language models struggle to adjudicate them. We highlight the key role of expert human moderators in overseeing the moderation process and provide insights about the challenges of current moderation processes and tools.
- Abstract(参考訳): ボランティアのモデレーターはオンライン対話を継続する上で重要な役割を担っているが、何が許されるべきで、許すべきでないかについては意見の相違がしばしばある。
本稿では,モデレーター間の不一致に着目したコンテンツモデレーションの複雑さについて考察する。
5年と430万のモデレーションログを、24のサブレディットのトピックとサイズの異なるサブレディットから取得し、グレーエリア(または論争のあるケース)が未解決のケースとどのように異なるかを特徴付ける。
われわれは,利用者の意図が直接正当でないトランスグレッション,例えばトロルやブリガディング,およびコミュニティガバナンスをめぐる緊張に対処するため,モデレーターの間で一対七のモデレーション事件が議論されていることを示す。
これは、すべてのグレーエリアのケースのほぼ半数が自動モデレーション決定に関係しているためである。
情報理論的な評価を通じて、グレーエリアのケースは、未解決のケースよりも本質的に判断が難しいことを示し、最先端の言語モデルがそれらを判断するのに苦労していることを示す。
我々は、モデレーションプロセスの監督における専門家の人間モデレーターの役割を強調し、現在のモデレーションプロセスとツールの課題についての洞察を提供する。
関連論文リスト
- Community Moderation and the New Epistemology of Fact Checking on Social Media [124.26693978503339]
ソーシャルメディアプラットフォームは伝統的に、誤解を招くコンテンツを識別しフラグを立てるために、独立した事実チェック組織に依存してきた。
X(元Twitter)とMetaは、クラウドソースのファクトチェックの独自のバージョンを立ち上げて、コミュニティ主導のコンテンツモデレーションに移行した。
主要なプラットフォーム間での誤情報検出の現在のアプローチについて検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
論文 参考訳(メタデータ) (2025-05-26T14:50:18Z) - Venire: A Machine Learning-Guided Panel Review System for Community Content Moderation [17.673993032146527]
我々は、Reddit上でパネルレビューを行うML支援システムであるVenireを開発した。
Venireは、ログデータに基づいてトレーニングされた機械学習モデルを使用して、モデレーターが最も不一致しやすいケースを特定する。
我々は、Venireが意思決定の一貫性を改善し、遅れた意見の相違を表面化できることを示します。
論文 参考訳(メタデータ) (2024-10-30T20:39:34Z) - Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster [72.84926097773578]
実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
論文 参考訳(メタデータ) (2024-06-06T14:23:10Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - Towards Intersectional Moderation: An Alternative Model of Moderation
Built on Care and Power [0.4351216340655199]
代替モデレーションモデルを用いたコミュニティであるr/AskHistoriansのモデレーターと共同でエスノグラフィを行う。
r/AskHistorianの別のモデレーションモデルに関する3つの象徴的な議論に焦点をあてる。
私は、デザイナが意思決定プロセスをサポートするべきであり、政策立案者は社会技術システムの影響を考慮すべきだと論じます。
論文 参考訳(メタデータ) (2023-05-18T18:27:52Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Multilingual Content Moderation: A Case Study on Reddit [23.949429463013796]
Redditのコメント18万件の多言語データセットを導入し,コンテンツモデレーションの課題について検討する。
我々は、基礎となる課題を強調し、関連する研究課題を提案するために、広範な実験分析を行う。
私たちのデータセットと分析は、オートモデレーションの課題と機会に備えるのに役立ちます。
論文 参考訳(メタデータ) (2023-02-19T16:36:33Z) - A Trade-off-centered Framework of Content Moderation [25.068722325387515]
コンテンツモデレーションは、モデレーションアクション、スタイル、哲学、価値観に関する一連のトレードオフとして特徴づけられる。
コンテンツモデレーションの調査と設計において、トレードオフが重要視されるべきである、と私たちは主張する。
論文 参考訳(メタデータ) (2022-06-07T17:10:49Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Moderation Challenges in Voice-based Online Communities on Discord [24.417653462255448]
発見は、音声ベースのオンラインコミュニティが、コンテンツと対話の穏健化の意味を変えることを示唆している。
テキストベースのコミュニティのモデレーターが、破壊的なノイズや音声の襲撃など、馴染みのないルールを破る新しい方法だ。
新しいモデレーション戦略は限定的であり、しばしば聞き取りや最初の印象に基づいており、結果として、モデレーションの失敗から偽の告発まで様々な問題が生じる。
論文 参考訳(メタデータ) (2021-01-13T18:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。