論文の概要: The Unappreciated Role of Intent in Algorithmic Moderation of Social Media Content
- arxiv url: http://arxiv.org/abs/2405.11030v1
- Date: Fri, 17 May 2024 18:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 19:46:29.518058
- Title: The Unappreciated Role of Intent in Algorithmic Moderation of Social Media Content
- Title(参考訳): ソーシャルメディアコンテンツのアルゴリズム的モデレーションにおけるインテントの役割
- Authors: Xinyu Wang, Sai Koneru, Pranav Narayanan Venkit, Brett Frischmann, Sarah Rajtmajer,
- Abstract要約: 本稿では,コンテンツモデレーションシステムにおける意図の役割について考察する。
本研究は,意識と意図を捉える能力を評価するために,オンライン虐待に対するアート検出モデルとベンチマークトレーニングデータセットの現状をレビューする。
- 参考スコア(独自算出の注目度): 2.2618341648062477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As social media has become a predominant mode of communication globally, the rise of abusive content threatens to undermine civil discourse. Recognizing the critical nature of this issue, a significant body of research has been dedicated to developing language models that can detect various types of online abuse, e.g., hate speech, cyberbullying. However, there exists a notable disconnect between platform policies, which often consider the author's intention as a criterion for content moderation, and the current capabilities of detection models, which typically lack efforts to capture intent. This paper examines the role of intent in content moderation systems. We review state of the art detection models and benchmark training datasets for online abuse to assess their awareness and ability to capture intent. We propose strategic changes to the design and development of automated detection and moderation systems to improve alignment with ethical and policy conceptualizations of abuse.
- Abstract(参考訳): ソーシャルメディアが世界的なコミュニケーションの主流となっている中、乱暴なコンテンツの増加は市民の会話を損なう恐れがある。
この問題の批判的な性質を認識し、様々な種類のオンライン虐待、ヘイトスピーチ、サイバーいじめを検知できる言語モデルの開発に、かなりの研究機関が費やされている。
しかし、しばしば著者の意図をコンテンツモデレーションの基準と見なすプラットフォームポリシーと、通常意図を捉える努力を欠いている検出モデルの現在の能力との間には、顕著な不一致がある。
本稿では,コンテンツモデレーションシステムにおける意図の役割について考察する。
我々は、オンライン悪用のための最先端検出モデルとベンチマークトレーニングデータセットをレビューし、その意識と意図を捉える能力を評価する。
本稿では,不正行為の倫理的・政策的概念化との整合性を改善するため,自動検知・モデレーションシステムの設計・開発における戦略的変化を提案する。
関連論文リスト
- A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - Can Language Model Moderators Improve the Health of Online Discourse? [26.191337231826246]
我々は,モデレーション文献に基づく会話モデレーションの有効性の体系的定義を確立する。
本研究では,人間の介入とは無関係にモデルのモデレーション能力を評価するための総合的な評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:14:22Z) - Qualitative Analysis of a Graph Transformer Approach to Addressing Hate
Speech: Adapting to Dynamically Changing Content [8.393770595114763]
我々は、ソーシャルネットワークにおけるヘイトスピーチ検出のために、このソリューションの詳細な質的分析を提供する。
重要な洞察は、コンテキストの概念に関する推論に焦点が当てられていることは、オンライン投稿のマルチモーダル分析をサポートするのに十分な位置にあるということだ。
この問題が特に動的変化のテーマとどのように関係しているかを考察して結論付けます。
論文 参考訳(メタデータ) (2023-01-25T23:32:32Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Aggression and "hate speech" in communication of media users: analysis
of control capabilities [50.591267188664666]
著者らは新メディアにおける利用者の相互影響の可能性を検討した。
新型コロナウイルス(COVID-19)対策として、緊急の社会問題について議論する際、攻撃やヘイトスピーチのレベルが高いことが分かった。
結果は、現代のデジタル環境におけるメディアコンテンツの開発に有用である。
論文 参考訳(メタデータ) (2022-08-25T15:53:32Z) - SoK: Content Moderation in Social Media, from Guidelines to Enforcement,
and Research to Practice [9.356143195807064]
米国におけるソーシャルメディアコンテンツモデレーションのガイドラインと実践について調査する。
主流のソーシャルメディアプラットフォームで採用されているコンテンツモデレーションと、フリンジプラットフォームで採用されているコンテンツモデレーションの違いを識別する。
プラットフォームがワンサイズのモデルから、より包括的なモデルに移行するべき理由を強調します。
論文 参考訳(メタデータ) (2022-06-29T18:48:04Z) - Towards Ethics by Design in Online Abusive Content Detection [7.163723138100273]
研究の成果は、ヘイトスピーチの検出、毒性、サイバーいじめなど、関連するいくつかのサブエリアに広がっている。
倫理的問題を先導し、2段階のプロセスとして統一されたフレームワークを提案する。
新たなフレームワークは、Ethics by Designの原則によってガイドされており、より正確で信頼性の高いモデルを構築するためのステップである。
論文 参考訳(メタデータ) (2020-10-28T13:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。