論文の概要: Using psychological theory to ground guidelines for the annotation of misogynistic language
- arxiv url: http://arxiv.org/abs/2601.17417v1
- Date: Sat, 24 Jan 2026 11:29:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.723033
- Title: Using psychological theory to ground guidelines for the annotation of misogynistic language
- Title(参考訳): 心理学的理論を用いた誤義語アノテーションの基礎的ガイドライン
- Authors: Artemis Deligianni, Zachary Horne, Leonidas A. A. Doumas,
- Abstract要約: misogynyはオンラインとオフラインの両方で上昇しています。
現在の誤検出符号化方式とデータセットは、女性がオンラインで誤検出を経験する方法を捉えていない。
本稿では,Large Language Models (LLMs) を用いたケーススタディを,文献における自己記述型の "Expert" misogyny アノテーションスキームと比較する。
- 参考スコア(独自算出の注目度): 2.0391237204597368
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Detecting misogynistic hate speech is a difficult algorithmic task. The task is made more difficult when decision criteria for what constitutes misogynistic speech are ungrounded in established literatures in psychology and philosophy, both of which have described in great detail the forms explicit and subtle misogynistic attitudes can take. In particular, the literature on algorithmic detection of misogynistic speech often rely on guidelines that are insufficiently robust or inappropriately justified -- they often fail to include various misogynistic phenomena or misrepresent their importance when they do. As a result, current misogyny detection coding schemes and datasets fail to capture the ways women experience misogyny online. This is of pressing importance: misogyny is on the rise both online and offline. Thus, the scientific community needs to have a systematic, theory informed coding scheme of misogyny detection and a corresponding dataset to train and test models of misogyny detection. To this end, we developed (1) a misogyny annotation guideline scheme informed by theoretical and empirical psychological research, (2) annotated a new dataset achieving substantial inter-rater agreement (kappa = 0.68) and (3) present a case study using Large Language Models (LLMs) to compare our coding scheme to a self-described "expert" misogyny annotation scheme in the literature. Our findings indicate that our guideline scheme surpasses the other coding scheme in the classification of misogynistic texts across 3 datasets. Additionally, we find that LLMs struggle to replicate our human annotator labels, attributable in large part to how LLMs reflect mainstream views of misogyny. We discuss implications for the use of LLMs for the purposes of misogyny detection.
- Abstract(参考訳): 疑似憎悪スピーチの検出は、難しいアルゴリズム作業である。
この課題は、心理学や哲学の確立した文献において、誤形論的な言論を構成するものに関する決定基準が未定である場合に、より困難になる。
特に、アルゴリズムによる誤語検出に関する文献は、しばしば不十分に堅牢で不適切な正当化がなされたガイドラインに依存している。
その結果、現在の誤検出コーディングスキームとデータセットは、女性がオンラインで誤検出を経験する方法を捉えていない。
オンラインとオフラインの両方で誤魔化が増加している。
したがって、科学コミュニティは、誤検出の体系的、理論に通じたコーディングスキームと、誤検出のモデルの訓練と試験を行うための対応するデータセットを持つ必要がある。
この目的のために,(1)理論的・実証心理学的な研究から得られた誤読注釈ガイドライン,(2)実質的なラッター間合意(kappa = 0.68)を達成した新たなデータセットを注釈し,(3)大規模言語モデル(LLM)を用いて,文献における自己記述の「専門的」誤読注釈スキームと比較した。
以上の結果から,本ガイドラインは3つのデータセットにまたがる擬似的テキストの分類において,他の符号化手法を超越していることが示唆された。
さらに、LLMが人間のアノテータラベルの複製に苦慮していることがわかっています。
誤検出の目的でLLMを使うことの意味を論じる。
関連論文リスト
- What is Beneath Misogyny: Misogynous Memes Classification and Explanation [20.78432772119578]
そこで本研究では,ミーム中の擬似的内容を検出し,分類し,説明するための新しいアプローチを提案する。
textitnamely, textittextbfMM-Misogyny はテキストと画像のモダリティを別々に処理する。
このモデルはミソジニーを検知し分類するだけでなく、ミソジニーが生命の領域でどのように機能するかを詳細に理解する。
論文 参考訳(メタデータ) (2025-07-30T14:38:53Z) - Divided by discipline? A systematic literature review on the quantification of online sexism and misogyny using a semi-automated approach [1.1599570446840546]
性差別、性差別、性別に基づくヘイトスピーチを検知し、識別する計算ツールが開発されている。
本総説では, セクシズムと誤認の定義, 学際的な相違, 自動検出方法, 関連する課題, デザインに基づく介入の5つのテーマにまとめる。
論文 参考訳(メタデータ) (2024-09-30T11:34:39Z) - Language is Scary when Over-Analyzed: Unpacking Implied Misogynistic Reasoning with Argumentation Theory-Driven Prompts [17.259767031006604]
代名詞的推論タスクとして誤検出を提案する。
イタリア語と英語の両方で誤字を伝えるために用いられる暗黙の推論を理解するために,大規模言語モデルの能力について検討する。
論文 参考訳(メタデータ) (2024-09-04T08:27:43Z) - A multitask learning framework for leveraging subjectivity of annotators to identify misogyny [47.175010006458436]
本研究では,誤識別システムの性能向上を目的としたマルチタスク学習手法を提案する。
6つのプロファイルグループにまたがる性別と年齢を考慮したモデル設計において,アノテータからさまざまな視点を取り入れた。
本研究は、コンテンツモデレーションを推進し、効果的なオンラインモデレーションシステムを構築するための多様な視点を受け入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-22T15:06:08Z) - Exploratory Data Analysis on Code-mixed Misogynistic Comments [0.0]
我々は、ミックスコードHinglishでYouTubeコメントの新しいデータセットを提示する。
これらのコメントは「ミソジニスト」と「非ミソジニスト」とラベル付けされている。
論文 参考訳(メタデータ) (2024-03-09T23:21:17Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。