論文の概要: Content Moderation Justice and Fairness on Social Media: Comparisons
Across Different Contexts and Platforms
- arxiv url: http://arxiv.org/abs/2403.06034v1
- Date: Sat, 9 Mar 2024 22:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 09:13:52.068558
- Title: Content Moderation Justice and Fairness on Social Media: Comparisons
Across Different Contexts and Platforms
- Title(参考訳): ソーシャルメディアにおけるコンテンツモデレーションの正義と公正性:異なる文脈とプラットフォームの比較
- Authors: Jie Cai, Aashka Patel, Azadeh Naderi, Donghee Yvette Wohn
- Abstract要約: 我々はRedditとTwitterの200人のアメリカのソーシャルメディアユーザーを対象にオンライン実験を行っている。
帰属的モデレーションは、違法な違反行為において、商業的に中途半端なプラットフォームに対して、より高い正義と公正をもたらすことが分かっています。
我々は、モデレーション・システム設計を改善するためのプラットフォーム・ポリシー作成の機会について論じる。
- 参考スコア(独自算出の注目度): 23.735552021636245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media users may perceive moderation decisions by the platform
differently, which can lead to frustration and dropout. This study investigates
users' perceived justice and fairness of online moderation decisions when they
are exposed to various illegal versus legal scenarios, retributive versus
restorative moderation strategies, and user-moderated versus commercially
moderated platforms. We conduct an online experiment on 200 American social
media users of Reddit and Twitter. Results show that retributive moderation
delivers higher justice and fairness for commercially moderated than for
user-moderated platforms in illegal violations; restorative moderation delivers
higher fairness for legal violations than illegal ones. We discuss the
opportunities for platform policymaking to improve moderation system design.
- Abstract(参考訳): ソーシャルメディアのユーザは、プラットフォームによるモデレーションの決定が違って、フラストレーションやドロップアウトにつながる可能性がある。
本研究は、オンラインモデレーション決定の公正さと公正さを、さまざまな違法対法的シナリオ、再帰的/再帰的モデレーション戦略、ユーザモデレーション対商業的モデレーションプラットフォームに暴露する場合に検証する。
redditとtwitterの200人のアメリカのソーシャルメディアユーザーを対象に、オンライン実験を行いました。
その結果, 帰属的モデレーションは, 違法な違反行為において, ユーザモデレートされたプラットフォームに対してより高い公正性と公正性をもたらすことが明らかとなった。
我々は、モデレーションシステム設計を改善するためのプラットフォームポリシー作成の機会について論じる。
関連論文リスト
- How Decentralization Affects User Agency on Social Platforms [0.0]
本研究は,園芸プラットフォームへの代替モデルとして,分散化が約束を果たす可能性について考察する。
本稿では,ブロックによるユーザ主導型コンテンツモデレーションを,分散型ソーシャルプラットフォームであるBluesky上のエージェンシー表現として記述する。
論文 参考訳(メタデータ) (2024-06-13T12:15:15Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - Content Moderation and the Formation of Online Communities: A
Theoretical Framework [7.900694093691988]
オンラインコミュニティにおけるコンテンツモデレーションポリシーの影響について検討する。
まず,安定なコミュニティを創り,維持するためのモデレーション政策の自然クラスの有効性を特徴付ける。
論文 参考訳(メタデータ) (2023-10-16T16:49:44Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Spillover of Antisocial Behavior from Fringe Platforms: The Unintended
Consequences of Community Banning [0.2752817022620644]
Reddit上でのフリンジコミュニティへの参加は、禁止されたコミュニティと同様、ユーザーの毒性とサブレディットへの関与を増加させることを示す。
要するに、フリンジプラットフォームからRedditへの参加を通じて、反社会的行動が流出した証拠が見つかったのです。
論文 参考訳(メタデータ) (2022-09-20T15:48:27Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z) - An Iterative Approach for Identifying Complaint Based Tweets in Social
Media Platforms [76.9570531352697]
本稿では,トランスポートドメインに関連する苦情に基づく投稿を識別する反復的手法を提案する。
研究目的のための新しいデータセットのリリースとともに、包括的評価を行う。
論文 参考訳(メタデータ) (2020-01-24T22:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。