論文の概要: Impact of Stricter Content Moderation on Parler's Users' Discourse
- arxiv url: http://arxiv.org/abs/2310.08844v1
- Date: Fri, 13 Oct 2023 04:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 14:33:04.782751
- Title: Impact of Stricter Content Moderation on Parler's Users' Discourse
- Title(参考訳): parlerのユーザ談話におけるコンテンツモデレーションの厳格化の影響
- Authors: Nihal Kumarswamy, Mohit Singhal, Shirin Nilizadeh
- Abstract要約: 本研究では, パラーが行ったモデレーション変化と, その含有量に対する毒性について検討した。
準実験時系列分析により, パーラーのモデレーションが変化した後, 毒性は急速に減少し, 持続したことが明らかとなった。
共有されているニュースサイトの事実性の増加に加えて、共有されている陰謀や疑似科学ソースの数も減少していることがわかった。
- 参考スコア(独自算出の注目度): 1.7863534204867277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms employ various content moderation techniques to remove
harmful, offensive, and hate speech content. The moderation level varies across
platforms; even over time, it can evolve in a platform. For example, Parler, a
fringe social media platform popular among conservative users, was known to
have the least restrictive moderation policies, claiming to have open
discussion spaces for their users. However, after linking the 2021 US Capitol
Riots and the activity of some groups on Parler, such as QAnon and Proud Boys,
on January 12, 2021, Parler was removed from the Apple and Google App Store and
suspended from Amazon Cloud hosting service. Parler would have to modify their
moderation policies to return to these online stores. After a month of
downtime, Parler was back online with a new set of user guidelines, which
reflected stricter content moderation, especially regarding the \emph{hate
speech} policy.
In this paper, we studied the moderation changes performed by Parler and
their effect on the toxicity of its content. We collected a large longitudinal
Parler dataset with 17M parleys from 432K active users from February 2021 to
January 2022, after its return to the Internet and App Store. To the best of
our knowledge, this is the first study investigating the effectiveness of
content moderation techniques using data-driven approaches and also the first
Parler dataset after its brief hiatus. Our quasi-experimental time series
analysis indicates that after the change in Parler's moderation, the severe
forms of toxicity (above a threshold of 0.5) immediately decreased and
sustained. In contrast, the trend did not change for less severe threats and
insults (a threshold between 0.5 - 0.7). Finally, we found an increase in the
factuality of the news sites being shared, as well as a decrease in the number
of conspiracy or pseudoscience sources being shared.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、有害、攻撃的、ヘイトスピーチコンテンツを除去するために様々なコンテンツモデレーション技術を使用している。
モデレーションレベルはプラットフォームによって異なり、時間とともにプラットフォーム内で進化する可能性がある。
例えば、保守的なユーザーの間で人気のソーシャルメディアプラットフォームであるParlerは、最小限のモデレーションポリシーを持つことで知られており、ユーザのためのオープンな議論スペースを持っていると主張した。
しかし、2021年の米国議会議事堂暴動と、2021年1月12日にQAnonやProud BoysなどのParler上の一部のグループをリンクした後、ParlerはAppleとGoogle App Storeから削除され、Amazon Cloudホスティングサービスから停止された。
Parlerは、これらのオンラインストアに戻るためには、モデレーションポリシーを変更する必要がある。
1ヶ月のダウンタイムの後、パーラーは新しいユーザーガイドラインと共にオンラインに戻り、特に『emph{hate speech}』ポリシーに関して、より厳格なコンテンツモデレーションを反映した。
本稿では,Parlerが行ったモデレーション変化と,その含有量に対する毒性について検討した。
われわれは2021年2月から2022年1月まで、432万のアクティブユーザーから1700万パリーからなる巨大な縦型パーラーデータセットを収集した。
私たちの知る限りでは、データ駆動アプローチによるコンテンツモデレーション手法の有効性と、短い中断後の最初のパーラーデータセットを調査する最初の研究です。
準実験時系列分析の結果,パーラーのモデレーションが変化した後,重篤な毒性形態(しきい値0.5以上)は直ちに減少し持続することが示された。
対照的に、厳格な脅迫や侮辱(0.5から0.7のしきい値)は傾向が変化しなかった。
最後に、共有されているニュースサイトの事実性が向上し、共用する陰謀や偽科学の情報源の数も減少したことが分かりました。
関連論文リスト
- An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically
Polarized Posts on Twitter [4.357949911556638]
政治イデオロギーが個人のユーザレベルとTwitterのトピックレベルの両方で毒性に寄与する役割について検討する。
55,415人のTwitterユーザーから1億8700万のツイートを集めた結果、政治イデオロギーやアカウント年齢などのアカウントレベルの特徴が、各ユーザーが有害コンテンツを投稿する頻度を予測する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Going Extreme: Comparative Analysis of Hate Speech in Parler and Gab [2.487445341407889]
われわれはParler上でのヘイトスピーチの大規模分析を行った。
分類精度を改善するために10K Parlerの投稿に注釈を付けた。
ヘイト・モンジャーはパラーのアクティブユーザー数の16.1%を占める。
論文 参考訳(メタデータ) (2022-01-27T19:29:17Z) - Comparing the Language of QAnon-related content on Parler, Gab, and
Twitter [68.8204255655161]
保守派の間で人気の「言論の自由」プラットフォームであるParlerは、2021年1月に、憎悪やQAnonなどの陰謀に関するコンテンツのモデレーションの欠如により、オフラインになった。
われわれは投稿をParlerの#QAnonというハッシュタグと比較する。
Gabはヘイト条件の#QAnon投稿が最も多く、ParlerとTwitterも同様である。
これら3つのプラットフォームにおいて、女性政治家、民主党員、ドナルド・トランプに言及する投稿は、男性政治家、共和党員、あるいは共和党員に言及する投稿よりも、より反社会的な言葉を持っている。
論文 参考訳(メタデータ) (2021-11-22T11:19:15Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Do Platform Migrations Compromise Content Moderation? Evidence from
r/The_Donald and r/Incels [20.41491269475746]
本研究は,コミュニティレベルの緩和措置にともなうオンラインコミュニティの進展状況について,大規模な観察研究の結果を報告する。
以上の結果から, いずれの場合も, モデレーションは新プラットフォームにおけるポスト活動を大幅に減少させることが明らかとなった。
それにもかかわらず、研究コミュニティの1つの利用者は、毒性や過激化に関連するシグナルの増加を示した。
論文 参考訳(メタデータ) (2020-10-20T16:03:06Z) - Reading In-Between the Lines: An Analysis of Dissenter [2.2881898195409884]
我々は、あらゆるWebページに対して会話オーバーレイを提供するブラウザおよびWebアプリケーションであるDissenterについて研究する。
本研究では,議論中のDissenterコメントやユーザ,ウェブサイトの履歴を取得する。
私たちのコーパスは、101kユーザーが588kの異なるURLでコメントした約1.68万のコメントで構成されています。
論文 参考訳(メタデータ) (2020-09-03T16:25:28Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。