論文の概要: SoK: Content Moderation in Social Media, from Guidelines to Enforcement,
and Research to Practice
- arxiv url: http://arxiv.org/abs/2206.14855v2
- Date: Thu, 27 Oct 2022 23:26:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:32:21.089859
- Title: SoK: Content Moderation in Social Media, from Guidelines to Enforcement,
and Research to Practice
- Title(参考訳): SoK:ソーシャルメディアにおけるコンテンツモデレーション : ガイドラインから実施、研究から実践まで
- Authors: Mohit Singhal and Chen Ling and Pujan Paudel and Poojitha Thota and
Nihal Kumarswamy and Gianluca Stringhini and Shirin Nilizadeh
- Abstract要約: 米国におけるソーシャルメディアコンテンツモデレーションのガイドラインと実践について調査する。
主流のソーシャルメディアプラットフォームで採用されているコンテンツモデレーションと、フリンジプラットフォームで採用されているコンテンツモデレーションの違いを識別する。
プラットフォームがワンサイズのモデルから、より包括的なモデルに移行するべき理由を強調します。
- 参考スコア(独自算出の注目度): 9.356143195807064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To counter online abuse and misinformation, social media platforms have been
establishing content moderation guidelines and employing various moderation
policies. The goal of this paper is to study these community guidelines and
moderation practices, as well as the relevant research publications to identify
the research gaps, differences in moderation techniques, and challenges that
should be tackled by the social media platforms and the research community at
large. In this regard, we study and analyze in the US jurisdiction the fourteen
most popular social media content moderation guidelines and practices, and
consolidate them. We then introduce three taxonomies drawn from this analysis
as well as covering over one hundred interdisciplinary research papers about
moderation strategies. We identified the differences between the content
moderation employed in mainstream social media platforms compared to fringe
platforms. We also highlight the implications of Section 230, the need for
transparency and opacity in content moderation, why platforms should shift from
a one-size-fits-all model to a more inclusive model, and lastly, we highlight
why there is a need for a collaborative human-AI system.
- Abstract(参考訳): オンラインの悪用や誤情報に対抗するために、ソーシャルメディアプラットフォームはコンテンツモデレーションガイドラインを確立し、様々なモデレーションポリシーを採用している。
本研究の目的は,これらのコミュニティガイドラインやモデレーションの実践,研究のギャップ,モデレーション技術の違い,そしてソーシャルメディアプラットフォームや研究コミュニティ全体から取り組まなければならない課題を明らかにするための研究出版物について検討することである。
本研究では,米国において,ソーシャルメディアコンテンツのモデレーションに関する14のガイドラインと慣行を調査し分析し,統合する。
次に,この分析から得られた3つの分類学を紹介するとともに,モデレーション戦略に関する100以上の学際研究論文を紹介する。
主流のソーシャルメディアプラットフォームで採用されているコンテンツモデレーションと、フリンジプラットフォームとの差異を明らかにした。
また、第230節の意義、コンテンツモデレーションにおける透明性と不透明性、プラットフォームがすべて1サイズモデルからより包括的なモデルに移行すべき理由、そして最後に、コラボレーションによるヒューマンaiシステムの必要性について強調する。
関連論文リスト
- The Unappreciated Role of Intent in Algorithmic Moderation of Social Media Content [2.2618341648062477]
本稿では,コンテンツモデレーションシステムにおける意図の役割について考察する。
本研究は,意識と意図を捉える能力を評価するために,オンライン虐待に対するアート検出モデルとベンチマークトレーニングデータセットの現状をレビューする。
論文 参考訳(メタデータ) (2024-05-17T18:05:13Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - Content Moderation and the Formation of Online Communities: A
Theoretical Framework [7.900694093691988]
オンラインコミュニティにおけるコンテンツモデレーションポリシーの影響について検討する。
まず,安定なコミュニティを創り,維持するためのモデレーション政策の自然クラスの有効性を特徴付ける。
論文 参考訳(メタデータ) (2023-10-16T16:49:44Z) - User Attitudes to Content Moderation in Web Search [49.1574468325115]
我々は、Web検索における誤解を招く可能性のあるコンテンツや攻撃的なコンテンツに適用される様々なモデレーションプラクティスに対するサポートレベルについて検討する。
最も支持されている実践は、誤解を招く可能性のあるコンテンツや不快なコンテンツについてユーザーに知らせることであり、最も支持されていないものは、検索結果を完全に削除することである。
より保守的なユーザーやウェブ検索結果に対する信頼度が低いユーザーは、ウェブ検索におけるコンテンツモデレーションに反する傾向にある。
論文 参考訳(メタデータ) (2023-10-05T10:57:15Z) - Understanding Divergent Framing of the Supreme Court Controversies:
Social Media vs. News Outlets [56.67097829383139]
我々は、米国最高裁判所の一連の判決に関して、ソーシャルメディアや伝統的なメディアのフレーミングにおける微妙な区別に焦点を当てている。
メディアが肯定的な行動や中絶の権利を扱い、学生ローンの話題はより深いコンセンサスを示す傾向にある。
論文 参考訳(メタデータ) (2023-09-18T06:40:21Z) - Aggression and "hate speech" in communication of media users: analysis
of control capabilities [50.591267188664666]
著者らは新メディアにおける利用者の相互影響の可能性を検討した。
新型コロナウイルス(COVID-19)対策として、緊急の社会問題について議論する際、攻撃やヘイトスピーチのレベルが高いことが分かった。
結果は、現代のデジタル環境におけるメディアコンテンツの開発に有用である。
論文 参考訳(メタデータ) (2022-08-25T15:53:32Z) - A Trade-off-centered Framework of Content Moderation [25.068722325387515]
コンテンツモデレーションは、モデレーションアクション、スタイル、哲学、価値観に関する一連のトレードオフとして特徴づけられる。
コンテンツモデレーションの調査と設計において、トレードオフが重要視されるべきである、と私たちは主張する。
論文 参考訳(メタデータ) (2022-06-07T17:10:49Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。