論文の概要: Throwaway Accounts and Moderation on Reddit
- arxiv url: http://arxiv.org/abs/2501.17430v1
- Date: Wed, 29 Jan 2025 06:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:16.151254
- Title: Throwaway Accounts and Moderation on Reddit
- Title(参考訳): Redditのスローウェイアカウントとモデレーション
- Authors: Cheng Guo, Kelly Caine,
- Abstract要約: ソーシャルメディアプラットフォーム(SMP)は、様々なレベルの感度で情報共有を容易にする。
本稿では, 匿名性, 特に, 投げ捨てアカウントの利用, Redditにおけるコンテンツモデレーションの程度と性質との関係について検討する。
- 参考スコア(独自算出の注目度): 5.697856467374781
- License:
- Abstract: Social media platforms (SMPs) facilitate information sharing across varying levels of sensitivity. A crucial design decision for SMP administrators is the platform's identity policy, with some opting for real-name systems while others allow anonymous participation. Content moderation on these platforms is conducted by both humans and automated bots. This paper examines the relationship between anonymity, specifically through the use of ``throwaway'' accounts, and the extent and nature of content moderation on Reddit. Our findings indicate that content originating from anonymous throwaway accounts is more likely to violate rules on Reddit. Thus, they are more likely to be removed by moderation than standard pseudonymous accounts. However, the moderation actions applied to throwaway accounts are consistent with those applied to ordinary accounts, suggesting that the use of anonymous accounts does not necessarily necessitate increased human moderation. We conclude by discussing the implications of these findings for identity policies and content moderation strategies on SMPs.
- Abstract(参考訳): ソーシャルメディアプラットフォーム(SMP)は、様々なレベルの感度で情報共有を容易にする。
SMP管理者にとって重要な設計決定はプラットフォームのアイデンティティポリシーであり、一部は実名システムを選択し、他は匿名参加を許可している。
これらのプラットフォーム上のコンテンツモデレーションは、人間と自動化ボットの両方によって実行される。
本稿では,匿名性,特に 'throwaway' アカウントの利用とRedditにおけるコンテンツモデレーションの程度と性質との関係について検討する。
われわれの調査結果は、匿名のアカウントから生まれたコンテンツがRedditのルールに違反している可能性が高いことを示唆している。
したがって、標準的な匿名アカウントよりもモデレーションによって削除される可能性が高い。
しかし、投棄アカウントに適用されるモデレーション動作は、通常のアカウントに適用されるものと一致しており、匿名アカウントの使用が必ずしも人身のモデレーションを増加させる必要はないことを示唆している。
SMPにおけるアイデンティティポリシーとコンテンツモデレーション戦略について,これらの知見がもたらす意味を論じる。
関連論文リスト
- Can Community Notes Replace Professional Fact-Checkers? [49.5332225129956]
Twitter/XとMetaによるポリシーの変更は、ファクトチェック組織とのパートナーシップから移行したことを示している。
分析の結果,コミュニティノートでは,過去の報告の最大5倍のファクトチェックソースを引用していることがわかった。
論文 参考訳(メタデータ) (2025-02-19T22:26:39Z) - Nudging Users to Change Breached Passwords Using the Protection Motivation Theory [58.87688846800743]
我々は保護動機理論(PMT)に基づいて、侵入したパスワードの変更を促すナッジを設計する。
本研究は, PMTのセキュリティ研究への応用に寄与し, 漏洩したクレデンシャル通知を改善するための具体的な設計上の意味を提供する。
論文 参考訳(メタデータ) (2024-05-24T07:51:15Z) - Personal Moderation Configurations on Facebook: Exploring the Role of
FoMO, Social Media Addiction, Norms, and Platform Trust [1.7223564681760166]
行方不明者(FoMO)やソーシャルメディア中毒の恐れは、Facebookユーザーをコンテンツベースの被害に対してより脆弱にする。
Facebookのモデレーションシステムに対する信頼は、個人のモデレーションに対するユーザのエンゲージメントにも大きく影響する。
論文 参考訳(メタデータ) (2024-01-11T00:28:57Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - User Identity Linkage in Social Media Using Linguistic and Social
Interaction Features [11.781485566149994]
ユーザーIDのリンクは、ソーシャルメディアアカウントが同一の自然人に属する可能性があることを明らかにすることを目的としている。
本研究は,ユーザのオンライン活動の複数の属性を利用する機械学習に基づく検出モデルを提案する。
モデルの有効性は、乱用とテロ関連のTwitterコンテンツに関する2つのケースで実証されている。
論文 参考訳(メタデータ) (2023-08-22T15:10:38Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Misleading Repurposing on Twitter [3.0254442724635173]
本研究は, ミスリーディング再資源化に関する最初の, 大規模研究である。
悪意のあるユーザーは、フォロワーを維持しながらアカウントを新しい目的に利用するために、プロフィール属性の変更などを通じて、ソーシャルメディアアカウントのアイデンティティを変更する。
本稿では,インターネットアーカイブのTwitter Stream Grabから収集したデータに対する教師あり学習を用いて,再利用されたアカウントにフラグを付ける手法と行動の定義を提案する。
論文 参考訳(メタデータ) (2020-10-20T20:19:01Z) - Do Platform Migrations Compromise Content Moderation? Evidence from
r/The_Donald and r/Incels [20.41491269475746]
本研究は,コミュニティレベルの緩和措置にともなうオンラインコミュニティの進展状況について,大規模な観察研究の結果を報告する。
以上の結果から, いずれの場合も, モデレーションは新プラットフォームにおけるポスト活動を大幅に減少させることが明らかとなった。
それにもかかわらず、研究コミュニティの1つの利用者は、毒性や過激化に関連するシグナルの増加を示した。
論文 参考訳(メタデータ) (2020-10-20T16:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。