論文の概要: Towards Intersectional Moderation: An Alternative Model of Moderation
Built on Care and Power
- arxiv url: http://arxiv.org/abs/2305.11250v1
- Date: Thu, 18 May 2023 18:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 17:39:21.429423
- Title: Towards Intersectional Moderation: An Alternative Model of Moderation
Built on Care and Power
- Title(参考訳): インターセクション・モデレーションに向けて:ケアとパワーを基盤としたモデレーションの代替モデル
- Authors: Sarah A. Gilbert
- Abstract要約: 代替モデレーションモデルを用いたコミュニティであるr/AskHistoriansのモデレーターと共同でエスノグラフィを行う。
r/AskHistorianの別のモデレーションモデルに関する3つの象徴的な議論に焦点をあてる。
私は、デザイナが意思決定プロセスをサポートするべきであり、政策立案者は社会技術システムの影響を考慮すべきだと論じます。
- 参考スコア(独自算出の注目度): 0.4351216340655199
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Shortcomings of current models of moderation have driven policy makers,
scholars, and technologists to speculate about alternative models of content
moderation. While alternative models provide hope for the future of online
spaces, they can fail without proper scaffolding. Community moderators are
routinely confronted with similar issues and have therefore found creative ways
to navigate these challenges. Learning more about the decisions these
moderators make, the challenges they face, and where they are successful can
provide valuable insight into how to ensure alternative moderation models are
successful.
In this study, I perform a collaborative ethnography with moderators of
r/AskHistorians, a community that uses an alternative moderation model,
highlighting the importance of accounting for power in moderation. Drawing from
Black feminist theory, I call this "intersectional moderation." I focus on
three controversies emblematic of r/AskHistorians' alternative model of
moderation: a disagreement over a moderation decision; a collaboration to fight
racism on Reddit; and a period of intense turmoil and its impact on policy.
Through this evidence I show how volunteer moderators navigated multiple layers
of power through care work. To ensure the successful implementation of
intersectional moderation, I argue that designers should support
decision-making processes and policy makers should account for the impact of
the sociotechnical systems in which moderators work.
- Abstract(参考訳): 現在のモデレーションモデルの欠点は、政策立案者、学者、技術者がコンテンツモデレーションの代替モデルについて推測することを促した。
代替モデルはオンラインスペースの将来への希望を提供するが、適切な足場なしでは失敗する可能性がある。
コミュニティモデレーターは、同様の問題に直面し、これらの課題をナビゲートするための創造的な方法を見つけました。
これらのモデレーターが行う決定、直面している課題、そして成功している場所についてさらに学ぶことで、代替モデレーションモデルの成功を確実にする方法に関する貴重な洞察を得ることができる。
本研究では、代替モデレーションモデルを用いたコミュニティであるr/AskHistoriansのモデレーターと共同でエスノグラフィを行い、モデレーションにおけるパワーの説明の重要性を強調した。
ブラックフェミニストの理論から、私はこれを「断続的モデレーション」と呼んでいる。
r/AskHistorianの別のモデレーションモデルに対する議論は、モデレーション決定に対する意見の相違、Redditで人種差別と戦うためのコラボレーション、激しい混乱と政策への影響の3つに焦点を合わせています。
この証拠を通じて、ボランティアのモデレーターが、ケアワークを通じて複数のパワー層をナビゲートしたことを示す。
交差点のモデレーションの実施が成功するためには、設計者は意思決定プロセスをサポートし、政策立案者はモデレーターが機能する社会技術システムの影響を考慮すべきである。
関連論文リスト
- Venire: A Machine Learning-Guided Panel Review System for Community Content Moderation [17.673993032146527]
我々は、Reddit上でパネルレビューを行うML支援システムであるVenireを開発した。
Venireは、ログデータに基づいてトレーニングされた機械学習モデルを使用して、モデレーターが最も不一致しやすいケースを特定する。
我々は、Venireが意思決定の一貫性を改善し、遅れた意見の相違を表面化できることを示します。
論文 参考訳(メタデータ) (2024-10-30T20:39:34Z) - Fundamental Problems With Model Editing: How Should Rational Belief Revision Work in LLMs? [61.68363765350178]
本稿では,モデル編集問題の標準的な定式化を批判し,モデル編集研究のための形式的テストベッドを提案する。
まず,(1) 問題の定義,(2) ベンチマークの開発,(3) LLM がそもそも編集可能な信念を持っていることを前提として,モデル編集における12のオープンな問題について述べる。
次に、Wikidataに基づくモデル編集のための半合成データセットを導入し、理想化されたベイズエージェントによって与えられるラベルに対する編集を評価する。
論文 参考訳(メタデータ) (2024-06-27T17:33:03Z) - Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster [72.84926097773578]
実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
論文 参考訳(メタデータ) (2024-06-06T14:23:10Z) - Concept Arithmetics for Circumventing Concept Inhibition in Diffusion Models [58.065255696601604]
拡散モデルの合成特性を使い、単一の画像生成において複数のプロンプトを利用することができる。
本論では, 画像生成の可能なすべてのアプローチを, 相手が適用可能な拡散モデルで検討することが重要であると論じる。
論文 参考訳(メタデータ) (2024-04-21T16:35:16Z) - Content Moderation Justice and Fairness on Social Media: Comparisons
Across Different Contexts and Platforms [23.735552021636245]
我々はRedditとTwitterの200人のアメリカのソーシャルメディアユーザーを対象にオンライン実験を行っている。
帰属的モデレーションは、違法な違反行為において、商業的に中途半端なプラットフォームに対して、より高い正義と公正をもたらすことが分かっています。
我々は、モデレーション・システム設計を改善するためのプラットフォーム・ポリシー作成の機会について論じる。
論文 参考訳(メタデータ) (2024-03-09T22:50:06Z) - Toxicity Detection is NOT all you Need: Measuring the Gaps to Supporting Volunteer Content Moderators [19.401873797111662]
我々はHugging Faceでモデルレビューを行い、様々なモデレーションルールとガイドラインをカバーするモデルの有効性を明らかにする。
テストに最先端のLLMを配置し、これらのモデルが特定のフォーラムからプラットフォームルールに違反していると警告する上で、いかにうまく機能するかを評価します。
概して、未発達のモデルとLLMは、ルールのかなりの部分で中程度から低い性能を示すため、非自明なギャップを観察する。
論文 参考訳(メタデータ) (2023-11-14T03:18:28Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - Dual policy as self-model for planning [71.73710074424511]
エージェントの自己モデルとして決定をシミュレートするために使用されるモデルについて述べる。
現在の強化学習アプローチと神経科学にインスパイアされた我々は、蒸留政策ネットワークを自己モデルとして利用することの利点と限界を探求する。
論文 参考訳(メタデータ) (2023-06-07T13:58:45Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - A Trade-off-centered Framework of Content Moderation [25.068722325387515]
コンテンツモデレーションは、モデレーションアクション、スタイル、哲学、価値観に関する一連のトレードオフとして特徴づけられる。
コンテンツモデレーションの調査と設計において、トレードオフが重要視されるべきである、と私たちは主張する。
論文 参考訳(メタデータ) (2022-06-07T17:10:49Z) - Moderation Challenges in Voice-based Online Communities on Discord [24.417653462255448]
発見は、音声ベースのオンラインコミュニティが、コンテンツと対話の穏健化の意味を変えることを示唆している。
テキストベースのコミュニティのモデレーターが、破壊的なノイズや音声の襲撃など、馴染みのないルールを破る新しい方法だ。
新しいモデレーション戦略は限定的であり、しばしば聞き取りや最初の印象に基づいており、結果として、モデレーションの失敗から偽の告発まで様々な問題が生じる。
論文 参考訳(メタデータ) (2021-01-13T18:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。