論文の概要: Social bias is prevalent in user reports of hate and abuse online
- arxiv url: http://arxiv.org/abs/2510.04748v1
- Date: Mon, 06 Oct 2025 12:27:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.846041
- Title: Social bias is prevalent in user reports of hate and abuse online
- Title(参考訳): ネット上のヘイトや虐待のユーザーレポートでは社会的偏見が頻発
- Authors: Florence E. Enock, Helen Z. Margetts, Jonathan Bright,
- Abstract要約: ヘイトと虐待のフラグ付けにおける社会的偏見の程度について,4つの異なるグループ間文脈で検討した。
全体として、参加者は虐待を確実に報告し、各研究の虐待的コメントの約半数が報告された。
しかし、社会的偏見が広まっており、アウトグループ指向の悪用はアウトグループ指向の悪用よりも遥かに大きくフラグ付けされていた。
- 参考スコア(独自算出の注目度): 2.0507758560052207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The prevalence of online hate and abuse is a pressing global concern. While tackling such societal harms is a priority for research across the social sciences, it is a difficult task, in part because of the magnitude of the problem. User engagement with reporting mechanisms (flagging) online is an increasingly important part of monitoring and addressing harmful content at scale. However, users may not flag content routinely enough, and when they do engage, they may be biased by group identity and political beliefs. Across five well-powered and pre-registered online experiments, we examine the extent of social bias in the flagging of hate and abuse in four different intergroup contexts: political affiliation, vaccination opinions, beliefs about climate change, and stance on abortion rights. Overall, participants reported abuse reliably, with approximately half of the abusive comments in each study reported. However, a pervasive social bias was present whereby ingroup-directed abuse was consistently flagged to a greater extent than outgroup-directed abuse. Our findings offer new insights into the nature of user flagging online, an understanding of which is crucial for enhancing user intervention against online hate speech and thus ensuring a safer online environment.
- Abstract(参考訳): オンラインの憎悪と虐待の流行は、世界的関心事だ。
このような社会的危害に対処することは、社会科学全般の研究において最優先事項であるが、問題の大きさが原因の一つとして、難しい課題である。
オンラインの報告メカニズム(フラッグング)によるユーザエンゲージメントは、有害なコンテンツを大規模に監視し、対処する上で、ますます重要になってきています。
しかし、ユーザーは定期的にコンテンツにフラグを付けることができず、エンゲージメントを行うと、グループのアイデンティティや政治的信念に偏っている可能性がある。
5つのオンライン実験において, ヘイトと虐待のフラグ付けにおける社会的偏見の程度について, 政治的関連性, 予防接種に関する意見, 気候変動に関する信念, 中絶の権利に対するスタンスについて検討した。
全体として、参加者は虐待を確実に報告し、各研究の虐待的コメントの約半数が報告された。
しかし、社会的偏見が広まっており、アウトグループ指向の悪用はアウトグループ指向の悪用よりも遥かに大きくフラグ付けされていた。
オンラインヘイトスピーチに対するユーザの介入を促進させ、より安全なオンライン環境の確保に不可欠である。
関連論文リスト
- Community Moderation and the New Epistemology of Fact Checking on Social Media [124.26693978503339]
ソーシャルメディアプラットフォームは伝統的に、誤解を招くコンテンツを識別しフラグを立てるために、独立した事実チェック組織に依存してきた。
X(元Twitter)とMetaは、クラウドソースのファクトチェックの独自のバージョンを立ち上げて、コミュニティ主導のコンテンツモデレーションに移行した。
主要なプラットフォーム間での誤情報検出の現在のアプローチについて検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
論文 参考訳(メタデータ) (2025-05-26T14:50:18Z) - Toxic behavior silences online political conversations [0.0]
個人は有害な行動に晒されているため、少数派の意見を公然と表現することを控える可能性があるという仮説を考察する。
隠れマルコフモデルを用いて、毒性による沈黙と一致した潜伏状態を特定する。
本研究は、オンライン政治熟考の複雑さを考察し、自己検閲のダイナミクスを考えることの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-07T20:39:20Z) - On the Relation Between Opinion Change and Information Consumption on
Reddit [22.387666772159974]
オンラインソーシャルメディアにおけるユーザの意見変化エピソードとその後の行動変化との関係について検討した。
意見変更を報告した人は、オンラインコミュニティの特定のサブセットへの将来の参加を変える可能性が著しく高いことがわかりました。
論文 参考訳(メタデータ) (2022-07-25T13:34:16Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - The User behind the Abuse: A Position on Ethics and Explainability [25.791014642037585]
ユーザとオンラインコミュニティのモデリングが乱用検知に果たす役割について論じる。
その後、ユーザー情報とコミュニティ情報を取り入れる倫理的課題を探求します。
説明可能な方法が示すべき特性について提案する。
論文 参考訳(メタデータ) (2021-03-31T16:20:37Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - AbuseAnalyzer: Abuse Detection, Severity and Target Prediction for Gab
Posts [19.32095911241636]
本稿では, 虐待, 重大さ, 虐待行為のターゲットの観点から, オンライン虐待に着目した 7601 投稿を Gab から提供した。
また,これらの課題に対処するシステムを提案し,乱用の有無を80%,虐待対象予測を82%,虐待重症度予測を65%とした。
論文 参考訳(メタデータ) (2020-09-30T18:12:50Z) - ETHOS: an Online Hate Speech Detection Dataset [6.59720246184989]
本稿では,YouTube と Reddit のコメントに基づいて,Final-Eight クラウドソーシングプラットフォームを用いて検証した,バイナリとマルチラベルの2種類のテキストデータセットである 'ETHOS' を紹介する。
我々の重要な前提は、そのような時間のかかるプロセスから少量のラベル付きデータを入手しても、調査対象の素材でヘイトスピーチの発生を保証できるということである。
論文 参考訳(メタデータ) (2020-06-11T08:59:57Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。