論文の概要: Detecting Abusive Language on Online Platforms: A Critical Analysis
- arxiv url: http://arxiv.org/abs/2103.00153v1
- Date: Sat, 27 Feb 2021 08:01:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 19:56:25.203117
- Title: Detecting Abusive Language on Online Platforms: A Critical Analysis
- Title(参考訳): オンラインプラットフォーム上での乱用言語の検出 - 批判的分析
- Authors: Preslav Nakov, Vibha Nayak, Kyle Dent, Ameya Bhatawdekar, Sheikh
Muhammad Sarwar, Momchil Hardalov, Yoan Dinkov, Dimitrina Zlatkova, Guillaume
Bouchard, Isabelle Augenstein
- Abstract要約: オンラインプラットフォーム上での虐待言語は社会問題である。
ヘイトスピーチ、暴言、サイバーいじめなど、乱用する言語には多くの種類がある。
オンラインプラットフォームは、社会的害を制限し、法律を遵守し、ユーザーのためのより包括的な環境を作成するために、それを緩和しようとします。
- 参考スコア(独自算出の注目度): 28.693356660919143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abusive language on online platforms is a major societal problem, often
leading to important societal problems such as the marginalisation of
underrepresented minorities. There are many different forms of abusive language
such as hate speech, profanity, and cyber-bullying, and online platforms seek
to moderate it in order to limit societal harm, to comply with legislation, and
to create a more inclusive environment for their users. Within the field of
Natural Language Processing, researchers have developed different methods for
automatically detecting abusive language, often focusing on specific
subproblems or on narrow communities, as what is considered abusive language
very much differs by context. We argue that there is currently a dichotomy
between what types of abusive language online platforms seek to curb, and what
research efforts there are to automatically detect abusive language. We thus
survey existing methods as well as content moderation policies by online
platforms in this light, and we suggest directions for future work.
- Abstract(参考訳): オンラインプラットフォーム上での虐待的な言語は大きな社会問題であり、少数民族の過疎化などの重要な社会問題につながることが多い。
ヘイトスピーチ、暴言、サイバーいじめなど、乱用する言語にはさまざまな形態があり、オンラインプラットフォームは、社会的危害を抑え、法律に準拠し、より包括的な環境をユーザのために作り出そうとしている。
自然言語処理の分野において、研究者は乱用言語を自動的に検出する様々な方法を開発し、しばしば特定のサブプロブレムや狭いコミュニティに焦点を当てている。
私たちは、現在、どのような種類の虐待的な言語オンラインプラットフォームが抑制しようとしているのか、そして虐待的な言語を自動的に検出するための研究努力がどのようなものかを区別していると主張しています。
そこで本研究では,オンラインプラットフォームによる既存手法とコンテンツモデレーションポリシーを調査し,今後の課題への方向性を提案する。
関連論文リスト
- Harmful YouTube Video Detection: A Taxonomy of Online Harm and MLLMs as Alternative Annotators [0.0]
本研究は,映像コンテンツ中の害を検知するための計測方法と手法の進歩である。
我々は、ビデオプラットフォーム上でのオンライン被害に対する包括的分類を開発し、それを情報、憎悪、ハラスメント、予測、クリックベイト、性的被害、身体的被害の6つのカテゴリに分類する。
14枚の画像フレーム,1本のサムネイル,テキストメタデータを用いて,19,422本のYouTube動画を分析し,クラウドワーカー(Mturk)とGPT-4-Turboの精度を比較した。
論文 参考訳(メタデータ) (2024-11-06T23:48:30Z) - On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - User Attitudes to Content Moderation in Web Search [49.1574468325115]
我々は、Web検索における誤解を招く可能性のあるコンテンツや攻撃的なコンテンツに適用される様々なモデレーションプラクティスに対するサポートレベルについて検討する。
最も支持されている実践は、誤解を招く可能性のあるコンテンツや不快なコンテンツについてユーザーに知らせることであり、最も支持されていないものは、検索結果を完全に削除することである。
より保守的なユーザーやウェブ検索結果に対する信頼度が低いユーザーは、ウェブ検索におけるコンテンツモデレーションに反する傾向にある。
論文 参考訳(メタデータ) (2023-10-05T10:57:15Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - TeamX@DravidianLangTech-ACL2022: A Comparative Analysis for Troll-Based
Meme Classification [21.32190107220764]
ネット上の有害コンテンツは ソーシャルメディアプラットフォーム、政府機関、政策立案者、社会全体の間で 懸念を高めました
有害コンテンツに基づくオンラインコンテンツは、その1つで、挑発的、攻撃的、あるいは威圧的なメッセージを、視聴者を誤解させる意図で投稿する、というものだ。
本研究は,テキスト,ビジュアル,マルチモーダルコンテンツを用いて,トロルに基づくミーム分類の比較分析を行った。
論文 参考訳(メタデータ) (2022-05-09T16:19:28Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - When Curation Becomes Creation: Algorithms, Microcontent, and the
Vanishing Distinction between Platforms and Creators [30.71023908707896]
我々は、コヒーレントな規制の枠組みは、現代のソーシャルメディアの状況に適応しなければならないと論じている。
我々は、いかなるコヒーレントな規制フレームワークも、この現実に適応しなければならないと論じている。
論文 参考訳(メタデータ) (2021-07-01T13:37:05Z) - Preserving Integrity in Online Social Networks [13.347579281117628]
本稿では,オンラインプラットフォームとそのユーザをこのような被害から保護する技術の現状について調査する。
我々は,実践上有用であることが証明され,学術界から注目に値するテクニックを強調した。
論文 参考訳(メタデータ) (2020-09-22T04:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。