論文の概要: "Call me sexist, but...": Revisiting Sexism Detection Using
Psychological Scales and Adversarial Samples
- arxiv url: http://arxiv.org/abs/2004.12764v2
- Date: Wed, 2 Jun 2021 10:39:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 05:48:12.188756
- Title: "Call me sexist, but...": Revisiting Sexism Detection Using
Psychological Scales and Adversarial Samples
- Title(参考訳): 「性差別するが...」:心理学的尺度と対立サンプルを用いた性差別検出の再考
- Authors: Mattia Samory, Indira Sen, Julian Kohne, Fabian Floeck, Claudia Wagner
- Abstract要約: 我々は、性差別の異なる側面を心理学的尺度でそれらの実践に基礎を置いて概説する。
このスケールから、ソーシャルメディアにおける性差別のためのコードブックを導き、既存のデータセットや新しいデータセットに注釈を付けるために使用します。
結果は、現在の機械学習モデルは、性差別の非常に狭い言語マーカーの集合を拾い上げ、ドメイン外の例にうまく一般化しないことを示唆している。
- 参考スコア(独自算出の注目度): 2.029924828197095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research has focused on automated methods to effectively detect sexism
online. Although overt sexism seems easy to spot, its subtle forms and manifold
expressions are not. In this paper, we outline the different dimensions of
sexism by grounding them in their implementation in psychological scales. From
the scales, we derive a codebook for sexism in social media, which we use to
annotate existing and novel datasets, surfacing their limitations in breadth
and validity with respect to the construct of sexism. Next, we leverage the
annotated datasets to generate adversarial examples, and test the reliability
of sexism detection methods. Results indicate that current machine learning
models pick up on a very narrow set of linguistic markers of sexism and do not
generalize well to out-of-domain examples. Yet, including diverse data and
adversarial examples at training time results in models that generalize better
and that are more robust to artifacts of data collection. By providing a
scale-based codebook and insights regarding the shortcomings of the
state-of-the-art, we hope to contribute to the development of better and
broader models for sexism detection, including reflections on theory-driven
approaches to data collection.
- Abstract(参考訳): 研究はオンラインで性差別を効果的に検出する自動化手法に焦点を当てている。
過剰な性差別は見つけやすいように見えるが、その微妙な形式や多様体表現は見当たらない。
本稿では,セクシズムの異なる次元について,心理的尺度の実施を根拠として概説する。
このスケールから、ソーシャルメディアにおける性差別のコードブックを導き、既存のデータセットや新しいデータセットに注釈を付け、性差別の構成に関してその幅と妥当性の限界を指摘します。
次に,アノテーテッドデータセットを利用して逆例を生成し,セクシズム検出法の信頼性をテストする。
結果は、現在の機械学習モデルは、性差別の非常に狭い言語マーカーを拾い上げ、ドメイン外の例にうまく一般化しないことを示している。
しかし、トレーニング時に多様なデータや敵対的な例を含むと、より一般化し、データ収集のアーティファクトに対してより堅牢なモデルが得られる。
スケールベースのコードブックと最先端技術の欠点に関する洞察を提供することで、データ収集に対する理論駆動アプローチの振り返りを含む、性差別検出のための、より良くより広いモデルの開発に貢献できることを願っています。
関連論文リスト
- A multitask learning framework for leveraging subjectivity of annotators to identify misogyny [47.175010006458436]
本研究では,誤識別システムの性能向上を目的としたマルチタスク学習手法を提案する。
6つのプロファイルグループにまたがる性別と年齢を考慮したモデル設計において,アノテータからさまざまな視点を取り入れた。
本研究は、コンテンツモデレーションを推進し、効果的なオンラインモデレーションシステムを構築するための多様な視点を受け入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-22T15:06:08Z) - LCT-1 at SemEval-2023 Task 10: Pre-training and Multi-task Learning for
Sexism Detection and Classification [0.0]
SemEval-2023 Task 10 on Explainable Detection of Online Sexismは、性差別の検出の説明可能性を高めることを目的としている。
我々のシステムは、さらなるドメイン適応型事前学習に基づいている。
実験では、マルチタスク学習は性差別検出のための標準的な微調整と同等に実行される。
論文 参考訳(メタデータ) (2023-06-08T09:56:57Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - SemEval-2023 Task 10: Explainable Detection of Online Sexism [5.542286527528687]
オンライン性差別(EDOS)の説明可能な検出に関するSemEval Task 10について紹介する。
i)セクシズムの細粒度ベクトルを含むセクシズムコンテンツの新しい階層的分類,i)細粒度ラベルによる2万件のソーシャルメディアコメントデータセット,およびモデル適応のための大きな未ラベルデータセット,iii)ベースラインモデル,および,課題への参加者の提出方法,結果,エラーの分析である。
論文 参考訳(メタデータ) (2023-03-07T20:28:39Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - SexWEs: Domain-Aware Word Embeddings via Cross-lingual Semantic
Specialisation for Chinese Sexism Detection in Social Media [23.246615034191553]
性差別検出のための言語間ドメイン認識セマンティック・スペシャライゼーション・システムを開発した。
我々は、高リソース言語(英語)からの性差別のセマンティックリソースを活用し、ターゲット言語(中国語)の事前学習された単語ベクトルを専門化し、ドメイン知識を注入する。
他の専門化アプローチや中国語のベースライン語ベクトルと比較すると,本質的評価と外生的評価の両方において,SexWEsの平均スコアは0.033と0.064である。
論文 参考訳(メタデータ) (2022-11-15T19:00:20Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - SWSR: A Chinese Dataset and Lexicon for Online Sexism Detection [9.443571652110663]
中国初の性差別データセットであるSina Weibo Sexism Review(SWSR)データセットと、中国の大型レキシコンSexHateLexを提案する。
SWSRデータセットは、(i)性差別または非性差別、(ii)性差別カテゴリー、(iii)ターゲットタイプなど、さまざまなレベルの粒度のラベルを提供する。
我々は、最先端の機械学習モデルを用いた3つの性差別分類タスクの実験を行う。
論文 参考訳(メタデータ) (2021-08-06T12:06:40Z) - Automatic Detection of Sexist Statements Commonly Used at the Workplace [0.9790236766474201]
職場で言うことが多い性差別的発言のデータセットを提示する。
また,最先端の成果を得られる深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-08T15:14:29Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。