論文の概要: Explaining Matters: Leveraging Definitions and Semantic Expansion for Sexism Detection
- arxiv url: http://arxiv.org/abs/2506.06238v1
- Date: Fri, 06 Jun 2025 16:58:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.559915
- Title: Explaining Matters: Leveraging Definitions and Semantic Expansion for Sexism Detection
- Title(参考訳): 説明事項:性行為検出のための定義の活用と意味的拡張
- Authors: Sahrish Khan, Arshad Jhumka, Gabriele Pergola,
- Abstract要約: 本稿では、性差別検出のための2つのプロンプトベースのデータ拡張手法を提案する。
また,複数の言語モデルから補完的な視点を集約することで,予測関係を解消するアンサンブル戦略を導入する。
EDOSデータセットに対する実験的な評価は、すべてのタスクにおける最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 9.477601265462694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The detection of sexism in online content remains an open problem, as harmful language disproportionately affects women and marginalized groups. While automated systems for sexism detection have been developed, they still face two key challenges: data sparsity and the nuanced nature of sexist language. Even in large, well-curated datasets like the Explainable Detection of Online Sexism (EDOS), severe class imbalance hinders model generalization. Additionally, the overlapping and ambiguous boundaries of fine-grained categories introduce substantial annotator disagreement, reflecting the difficulty of interpreting nuanced expressions of sexism. To address these challenges, we propose two prompt-based data augmentation techniques: Definition-based Data Augmentation (DDA), which leverages category-specific definitions to generate semantically-aligned synthetic examples, and Contextual Semantic Expansion (CSE), which targets systematic model errors by enriching examples with task-specific semantic features. To further improve reliability in fine-grained classification, we introduce an ensemble strategy that resolves prediction ties by aggregating complementary perspectives from multiple language models. Our experimental evaluation on the EDOS dataset demonstrates state-of-the-art performance across all tasks, with notable improvements of macro F1 by 1.5 points for binary classification (Task A) and 4.1 points for fine-grained classification (Task C).
- Abstract(参考訳): オンラインコンテンツにおける性差別の検出は依然としてオープンな問題であり、有害な言語は女性や少数派グループに不公平に影響を及ぼす。
性差別検出のための自動システムは開発されているが、データスパシティと性差別言語のニュアンスな性質という2つの大きな課題に直面している。
EDOS(Explainable Detection of Online Sexism)のような、大規模でよく計算されたデータセットであっても、厳密なクラス不均衡はモデルの一般化を妨げる。
さらに、細粒度のカテゴリーの重なり合いとあいまいな境界は、性差別のニュアンス表現の解釈の難しさを反映して、相当なアノテータの不一致をもたらす。
これらの課題に対処するため,DDA(Defind-based Data Augmentation)とCSE(Contextual Semantic Expansion)の2つの手法を提案する。
細粒度分類の信頼性を高めるために,複数の言語モデルから補完的な視点を集約することで,予測関係を解消するアンサンブル戦略を導入する。
EDOSデータセットを用いた実験により,F1マクロの2次分類(Task A)では1.5ポイント,細粒度分類(Task C)では4.1ポイント向上した。
関連論文リスト
- Estimating Commonsense Plausibility through Semantic Shifts [66.06254418551737]
セマンティックシフトを測定することでコモンセンスの妥当性を定量化する新しい識別フレームワークであるComPaSSを提案する。
2種類の細粒度コモンセンス可視性評価タスクの評価は,ComPaSSが一貫してベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-19T06:31:06Z) - Blind Men and the Elephant: Diverse Perspectives on Gender Stereotypes in Benchmark Datasets [17.101242741559428]
本稿では,言語モデルの固有バイアス緩和と測定戦略に焦点を当てる。
我々は、本質的な測定を深く掘り下げ、矛盾を識別し、これらのベンチマークがジェンダーステレオタイプの違いを反映している可能性を示唆している。
本研究は, 言語モデルにおけるジェンダーステレオタイピングの複雑さと, 偏見の検出・低減のための, より洗練された手法を開発するための新たな方向性を指摘するものである。
論文 参考訳(メタデータ) (2025-01-02T09:40:31Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - AI-UPV at EXIST 2023 -- Sexism Characterization Using Large Language
Models Under The Learning with Disagreements Regime [2.4261434441245897]
本稿では,CLEF 2023のEXIST (sexism Identification in Social networks) LabへのAI-UPVチームの参加について述べる。
提案手法は、性差別の識別と特徴付けの課題を、不一致のパラダイムによる学習の下で解決することを目的としている。
提案システムは、大きな言語モデル(mBERTとXLM-RoBERTa)と、英語とスペイン語で性差別の識別と分類のためのアンサンブル戦略を使用する。
論文 参考訳(メタデータ) (2023-07-07T04:49:26Z) - Under the Morphosyntactic Lens: A Multifaceted Evaluation of Gender Bias
in Speech Translation [20.39599469927542]
ジェンダーバイアスは言語技術に影響を及ぼす問題として広く認識されている。
現代の評価慣行のほとんどは、合成条件下での職業名詞の狭いセットに単語レベルの焦点をあてている。
このようなプロトコルは、性合意のモルフォシンタクティック連鎖を特徴とする文法性言語の重要な特徴を見落としている。
論文 参考訳(メタデータ) (2022-03-18T11:14:16Z) - Word Embeddings via Causal Inference: Gender Bias Reducing and Semantic
Information Preserving [3.114945725130788]
本稿では、因果推論の枠組みを利用して、ジェンダーバイアスを効果的に除去する手法を提案する。
総括実験により,提案手法は男女の偏りを解消する作業において,最先端の成果を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-09T19:57:22Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - "Call me sexist, but...": Revisiting Sexism Detection Using
Psychological Scales and Adversarial Samples [2.029924828197095]
我々は、性差別の異なる側面を心理学的尺度でそれらの実践に基礎を置いて概説する。
このスケールから、ソーシャルメディアにおける性差別のためのコードブックを導き、既存のデータセットや新しいデータセットに注釈を付けるために使用します。
結果は、現在の機械学習モデルは、性差別の非常に狭い言語マーカーの集合を拾い上げ、ドメイン外の例にうまく一般化しないことを示唆している。
論文 参考訳(メタデータ) (2020-04-27T13:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。