論文の概要: Understanding and Analyzing Inappropriately Targeting Language in Online Discourse: A Comparative Annotation Study
- arxiv url: http://arxiv.org/abs/2505.16847v1
- Date: Thu, 22 May 2025 16:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.439531
- Title: Understanding and Analyzing Inappropriately Targeting Language in Online Discourse: A Comparative Annotation Study
- Title(参考訳): オンライン談話における不適切なターゲット言語理解と分析 : 注釈の比較研究
- Authors: Baran Barbarestani, Isa Maks, Piek Vossen,
- Abstract要約: 本稿では,ChatGPTにクラウドとエキスパートアノテーションを統合することで,オンライン会話における不適切なターゲット言語を検出する手法を提案する。
Redditの英語の会話スレッドに注目し、個人やグループをターゲットにしたコメントを調べます。
我々は,人間の専門家,群衆アノテータ,ChatGPTのアノテーションの比較分析を行い,明示的なヘイトスピーチと微妙な差別言語の両方を認識する上で,それぞれの手法の長所と短所を明らかにした。
- 参考スコア(独自算出の注目度): 1.0923877073891446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a method for detecting inappropriately targeting language in online conversations by integrating crowd and expert annotations with ChatGPT. We focus on English conversation threads from Reddit, examining comments that target individuals or groups. Our approach involves a comprehensive annotation framework that labels a diverse data set for various target categories and specific target words within the conversational context. We perform a comparative analysis of annotations from human experts, crowd annotators, and ChatGPT, revealing strengths and limitations of each method in recognizing both explicit hate speech and subtler discriminatory language. Our findings highlight the significant role of contextual factors in identifying hate speech and uncover new categories of targeting, such as social belief and body image. We also address the challenges and subjective judgments involved in annotation and the limitations of ChatGPT in grasping nuanced language. This study provides insights for improving automated content moderation strategies to enhance online safety and inclusivity.
- Abstract(参考訳): 本稿では,ChatGPTにクラウドとエキスパートアノテーションを統合することで,オンライン会話における不適切なターゲット言語を検出する手法を提案する。
Redditの英語の会話スレッドに注目し、個人やグループをターゲットにしたコメントを調べます。
提案手法は,会話コンテキスト内の様々なカテゴリや特定のターゲット語に対して,多様なデータセットをラベル付けする包括的なアノテーションフレームワークである。
我々は,人間の専門家,群衆アノテータ,ChatGPTのアノテーションの比較分析を行い,明示的なヘイトスピーチと微妙な差別言語の両方を認識する上で,それぞれの手法の長所と短所を明らかにした。
本研究は,ヘイトスピーチの識別における文脈要因の意義を明らかにするとともに,社会的信念や身体像などの新たなターゲティングカテゴリーを明らかにすることを目的とした。
また, アノテーションにかかわる課題や主観的判断, ニュアンス言語習得におけるChatGPTの限界にも対処する。
本研究は、オンラインの安全性とインクリシティを高めるために、自動コンテンツモデレーション戦略を改善するための洞察を提供する。
関連論文リスト
- SafeSpeech: A Comprehensive and Interactive Tool for Analysing Sexist and Abusive Language in Conversations [7.4815142964548205]
SafeSpeechは、有害なコンテンツの検出と分析のための総合的なプラットフォームである。
メッセージレベルと会話レベルの洞察をブリッジする。
このプラットフォームは、微調整の分類器と大きな言語モデルを統合する。
EDOS、OffensEval、HatEvalといったベンチマークデータセットの評価は、最先端のパフォーマンスの再現を実証している。
論文 参考訳(メタデータ) (2025-03-09T09:31:17Z) - Context Does Matter: Implications for Crowdsourced Evaluation Labels in Task-Oriented Dialogue Systems [57.16442740983528]
クラウドソースラベルは、タスク指向の対話システムを評価する上で重要な役割を果たす。
従来の研究では、アノテーションプロセスで対話コンテキストの一部だけを使用することが提案されている。
本研究では,対話文脈がアノテーション品質に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2024-04-15T17:56:39Z) - A comprehensive cross-language framework for harmful content detection
with the aid of sentiment analysis [0.356008609689971]
この研究は、初めて、どんな言語にも適応可能な詳細なフレームワークを紹介します。
フレームワークの重要なコンポーネントは、汎用的で詳細なアノテーションガイドラインの開発である。
感情分析の統合は、有害な言語検出を強化する新しいアプローチである。
論文 参考訳(メタデータ) (2024-03-02T17:13:47Z) - The performance of multiple language models in identifying offensive
language on social media [6.221851249300585]
本研究の目的は、さまざまなアルゴリズムを用いて攻撃的な投稿を識別する能力をテストすることである。
このプロジェクトの動機は、悪質な投稿のスクリーニングを自動化することで、これらの言語の人間検閲に対する害を軽減することである。
論文 参考訳(メタデータ) (2023-12-10T18:58:26Z) - A Corpus for Sentence-level Subjectivity Detection on English News Articles [49.49218203204942]
我々はこのガイドラインを用いて、議論を呼んだ話題に関する英ニュース記事から抽出した638の目的語と411の主観的な文からなるNewsSD-ENGを収集する。
我々のコーパスは、語彙や機械翻訳といった言語固有のツールに頼ることなく、英語で主観的検出を行う方法を舗装している。
論文 参考訳(メタデータ) (2023-05-29T11:54:50Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Qualitative Analysis of a Graph Transformer Approach to Addressing Hate
Speech: Adapting to Dynamically Changing Content [8.393770595114763]
我々は、ソーシャルネットワークにおけるヘイトスピーチ検出のために、このソリューションの詳細な質的分析を提供する。
重要な洞察は、コンテキストの概念に関する推論に焦点が当てられていることは、オンライン投稿のマルチモーダル分析をサポートするのに十分な位置にあるということだ。
この問題が特に動的変化のテーマとどのように関係しているかを考察して結論付けます。
論文 参考訳(メタデータ) (2023-01-25T23:32:32Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - "To Target or Not to Target": Identification and Analysis of Abusive
Text Using Ensemble of Classifiers [18.053219155702465]
ソーシャルメディアプラットフォーム上での虐待的・憎悪的コンテンツを識別・分析するためのアンサンブル学習手法を提案する。
私たちの積み重ねられたアンサンブルは、3つの機械学習モデルで構成されており、言語のさまざまな側面をキャプチャし、不適切な言語に関する多様な一貫性のある洞察を提供する。
論文 参考訳(メタデータ) (2020-06-05T06:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。