論文の概要: Critical Challenges in Content Moderation for People Who Use Drugs (PWUD): Insights into Online Harm Reduction Practices from Moderators
- arxiv url: http://arxiv.org/abs/2508.02868v1
- Date: Mon, 04 Aug 2025 19:54:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.665801
- Title: Critical Challenges in Content Moderation for People Who Use Drugs (PWUD): Insights into Online Harm Reduction Practices from Moderators
- Title(参考訳): 薬物使用者(PWUD)のコンテンツモデレーションにおける批判的課題 : モデレーターからのオンラインハーム低減実践への視点
- Authors: Kaixuan Wang, Loraine Clarke, Carl-Cyril J Dreue, Guancheng Zhou, Jason T. Jacques,
- Abstract要約: この研究は3つのモデレーション課題によって特徴づけられる公衆衛生介入の一形態を構成する。
我々は,この研究が3つのモデレーション課題によって特徴づけられる公衆衛生介入の一形態であると主張している。
- 参考スコア(独自算出の注目度): 10.096128529206377
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Online communities serve as essential support channels for People Who Use Drugs (PWUD), providing access to peer support and harm reduction information. The moderation of these communities involves consequential decisions affecting member safety, yet existing sociotechnical systems provide insufficient support for moderators. Through interviews with experienced moderators from PWUD forums on Reddit, we analyse the unique nature of this work. We argue that this work constitutes a distinct form of public health intervention characterised by three moderation challenges: the need for specialised, expert risk assessment; time-critical crisis response; and the navigation of a structural conflict between platform policies and community safety goals. We demonstrate how current moderation systems are insufficient in supporting PWUD communities. For example, policies minimising platforms' legal exposure to illicit activities can inadvertently push moderators to implement restrictive rules to protect community's existence, which can limit such a vulnerable group's ability to share potentially life-saving resources online. We conclude by identifying two necessary shifts in sociotechnical design to support moderators' work: first, moving to automated tools that support human sensemaking in contexts with competing interests; and second, shifting from systems that require moderators to perform low-level rule programming to those that enable high-level, example-based instruction. Further, we highlight how the design of sociotechnical systems in online spaces could impact harm reduction efforts aimed at improving health outcomes for PWUD communities.
- Abstract(参考訳): オンラインコミュニティは、薬物を使用する人々(PWUD)にとって不可欠なサポートチャネルとして機能し、ピアサポートへのアクセスと有害な削減情報を提供している。
これらのコミュニティのモデレーションは、メンバーの安全に影響を与える連続的な決定を含むが、既存の社会技術システムはモデレーターに対する不十分なサポートを提供する。
RedditのPWUDフォーラムで経験豊富なモデレーターへのインタビューを通じて、この作品のユニークな性質を分析した。
本研究は, 専門的, 専門家によるリスク評価の必要性, 危機時対応, プラットフォーム政策とコミュニティの安全目標との間の構造的対立のナビゲーション, という3つのモデレーション課題によって特徴づけられる, 公衆衛生介入の一形態である, と我々は主張する。
我々は,PWUDコミュニティを支援する上で,現在のモデレーションシステムが不十分であることを示す。
例えば、不正な活動に対するプラットフォームの法的暴露を最小限に抑えるポリシーは、モデレーターに対して、コミュニティの存在を保護するための制限されたルールを実装するよう、不注意に強制することができる。
まず,モデレーターの作業を支援するために,モデレーターの作業を支援するために,モデレータを低レベルなルールプログラミングを実行するためにモデレータを必要とするシステムから,高レベルなサンプルベースの指導を可能にするシステムに移行する。
さらに、オンライン空間における社会工学システムの設計が、PWUDコミュニティの健康改善を目的とした害軽減活動にどのように影響するかを強調した。
関連論文リスト
- Community Moderation and the New Epistemology of Fact Checking on Social Media [124.26693978503339]
ソーシャルメディアプラットフォームは伝統的に、誤解を招くコンテンツを識別しフラグを立てるために、独立した事実チェック組織に依存してきた。
X(元Twitter)とMetaは、クラウドソースのファクトチェックの独自のバージョンを立ち上げて、コミュニティ主導のコンテンツモデレーションに移行した。
主要なプラットフォーム間での誤情報検出の現在のアプローチについて検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
論文 参考訳(メタデータ) (2025-05-26T14:50:18Z) - 2FA: Navigating the Challenges and Solutions for Inclusive Access [55.2480439325792]
2要素認証(2FA)は、オンライン活動を保護する重要なソリューションとして浮上している。
本稿では,全ユーザに対して安全かつアクセス可能な方法で2FAをデプロイすることの難しさについて検討する。
人気オンラインプラットフォームにおける様々な2FA手法の実装と利用状況について分析を行った。
論文 参考訳(メタデータ) (2025-02-17T12:23:53Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - Content Moderation and the Formation of Online Communities: A
Theoretical Framework [7.900694093691988]
オンラインコミュニティにおけるコンテンツモデレーションポリシーの影響について検討する。
まず,安定なコミュニティを創り,維持するためのモデレーション政策の自然クラスの有効性を特徴付ける。
論文 参考訳(メタデータ) (2023-10-16T16:49:44Z) - Nip it in the Bud: Moderation Strategies in Open Source Software
Projects and the Role of Bots [17.02726827353919]
本研究では,オープンソースソフトウェアプロジェクトにおけるコミュニティのモデレーションを支援する様々な構造と規範について検討する。
既存のモデレーションプラクティスと、自動化が支援を提供する方法を明らかにするために、14人の実践者氏にインタビューした。
私たちの主な貢献は、OSSプロジェクトにおける適度なコンテンツの評価、モデレーション技術、モデレーションタスクの自動化を改善するための認識とレコメンデーションなどです。
論文 参考訳(メタデータ) (2023-08-14T19:42:51Z) - Proactive Moderation of Online Discussions: Existing Practices and the
Potential for Algorithmic Support [12.515485963557426]
既にポストされている反社会的コンテンツに対して作用するリアクティブパラダイムは、現在最も一般的なモデレーション形式である。
私たちは、プロトタイプツールを構築することによって、この既存のアクティブなモデレーションワークフローをどのように支援できるかを探求します。
論文 参考訳(メタデータ) (2022-11-29T19:00:02Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Governing for Free: Rule Process Effects on Reddit Moderator Motivations [0.0]
Reddit上の280万以上の"サブレディット"コミュニティは、数十万人のボランティアモデレーターによって管理されている。
モデレーターはしばしばコミュニティのメンテナンスに日々の時間を割き、ヘイトコメントや邪魔なコンテンツによる感情的な影響に対処するが、Redditはこの職に補償を与えていない。
本研究では,社会心理学的ニーズの会合を通じて,過度なモデレーターがコミュニティルールを生み出す過程がモデレーターのモチベーションを増大させるかを検討する。
論文 参考訳(メタデータ) (2022-06-11T23:23:38Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z) - Moderation Challenges in Voice-based Online Communities on Discord [24.417653462255448]
発見は、音声ベースのオンラインコミュニティが、コンテンツと対話の穏健化の意味を変えることを示唆している。
テキストベースのコミュニティのモデレーターが、破壊的なノイズや音声の襲撃など、馴染みのないルールを破る新しい方法だ。
新しいモデレーション戦略は限定的であり、しばしば聞き取りや最初の印象に基づいており、結果として、モデレーションの失敗から偽の告発まで様々な問題が生じる。
論文 参考訳(メタデータ) (2021-01-13T18:43:22Z) - CASS: Towards Building a Social-Support Chatbot for Online Health
Community [67.45813419121603]
CASSアーキテクチャは高度なニューラルネットワークアルゴリズムに基づいている。
ユーザーからの新たな入力を処理し、さまざまなレスポンスを生成することができる。
フォローアップフィールド実験により、CASSは感情的支援を求める個々のメンバーを支援するのに有用であることが証明された。
論文 参考訳(メタデータ) (2021-01-04T05:52:03Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。