論文の概要: Automatic Detection of Sexist Statements Commonly Used at the Workplace
- arxiv url: http://arxiv.org/abs/2007.04181v1
- Date: Wed, 8 Jul 2020 15:14:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 12:37:51.009357
- Title: Automatic Detection of Sexist Statements Commonly Used at the Workplace
- Title(参考訳): 職場でよく使われる性差別的言明の自動検出
- Authors: Dylan Grosz, Patricia Conde-Cespedes
- Abstract要約: 職場で言うことが多い性差別的発言のデータセットを提示する。
また,最先端の成果を得られる深層学習モデルを提案する。
- 参考スコア(独自算出の注目度): 0.9790236766474201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting hate speech in the workplace is a unique classification task, as
the underlying social context implies a subtler version of conventional hate
speech. Applications regarding a state-of the-art workplace sexism detection
model include aids for Human Resources departments, AI chatbots and sentiment
analysis. Most existing hate speech detection methods, although robust and
accurate, focus on hate speech found on social media, specifically Twitter. The
context of social media is much more anonymous than the workplace, therefore it
tends to lend itself to more aggressive and "hostile" versions of sexism.
Therefore, datasets with large amounts of "hostile" sexism have a slightly
easier detection task since "hostile" sexist statements can hinge on a couple
words that, regardless of context, tip the model off that a statement is
sexist. In this paper we present a dataset of sexist statements that are more
likely to be said in the workplace as well as a deep learning model that can
achieve state-of-the art results. Previous research has created
state-of-the-art models to distinguish "hostile" and "benevolent" sexism based
simply on aggregated Twitter data. Our deep learning methods, initialized with
GloVe or random word embeddings, use LSTMs with attention mechanisms to
outperform those models on a more diverse, filtered dataset that is more
targeted towards workplace sexism, leading to an F1 score of 0.88.
- Abstract(参考訳): 職場でのヘイトスピーチの検出は、社会的コンテキストが従来のヘイトスピーチの微妙なバージョンを意味するため、ユニークな分類タスクである。
最先端の職場性差別検出モデルに関するアプリケーションには、ヒューマンリソース部門の支援、AIチャットボット、感情分析などがある。
既存のヘイトスピーチ検出手法のほとんどは、堅牢で正確だが、ソーシャルメディア、特にTwitterで見られるヘイトスピーチに焦点を当てている。
ソーシャルメディアの文脈は職場よりもはるかに匿名であるため、セクシズムのより攻撃的で「敵対的な」バージョンに結びつく傾向がある。
したがって、大量の"敵対的"性差別を持つデータセットは、"敵対的"性差別的ステートメントが、文脈に関係なく、モデルにセクシストであることを示唆する2つの単語をヒンジできるため、少し簡単に検出できる。
本稿では,職場で語られる可能性が高い性差別的発言のデータセットと,最先端の成果を得られる深層学習モデルを提案する。
これまでの研究は、単に集約されたtwitterのデータに基づいて「敵意」と「善意」のセクシズムを区別するための最先端のモデルを作ってきた。
我々のディープラーニング手法は、GloVeやランダムな単語埋め込みで初期化され、LSTMを使用して、より多様なフィルタリングされたデータセットでこれらのモデルをパフォーマンスし、職場の性差別をより対象とし、F1スコアが0.88になる。
関連論文リスト
- Bilingual Sexism Classification: Fine-Tuned XLM-RoBERTa and GPT-3.5 Few-Shot Learning [0.8192907805418581]
本研究の目的は、自然言語処理モデルを活用することにより、バイリンガル文脈(英語とスペイン語)における性差別の識別を改善することである。
我々はXLM-RoBERTaモデルを微調整し、性差別的コンテンツを分類するための数発の学習プロンプトでGPT-3.5を別々に使用した。
論文 参考訳(メタデータ) (2024-06-11T14:15:33Z) - Anti-Sexism Alert System: Identification of Sexist Comments on Social
Media Using AI Techniques [0.0]
ソーシャルメディア(新聞記事のコメント、ソーシャルネットワークなど)に投稿された性的なコメントは、通常多くの注目を集め、ウイルスに感染し、関係者に被害を与える。
本稿では,自然言語処理(NLP)と人工知能(AI)に基づく反性行為警告システムを提案する。
このシステムはあらゆる公開投稿を分析し、性差別的なコメントと見なせるかどうかを判断する。
論文 参考訳(メタデータ) (2023-11-28T19:48:46Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - Discrimination through Image Selection by Job Advertisers on Facebook [79.21648699199648]
求人広告における新たな差別手段の出現状況について検討する。
ターゲティングとデリバリーの両方を組み合わせ、求人広告画像の特定の人口層を不均等に表現したり排除したりする。
私たちはFacebook Ad Libraryを使って、このプラクティスの有病率を実証しています。
論文 参考訳(メタデータ) (2023-06-13T03:43:58Z) - SemEval-2023 Task 10: Explainable Detection of Online Sexism [5.542286527528687]
オンライン性差別(EDOS)の説明可能な検出に関するSemEval Task 10について紹介する。
i)セクシズムの細粒度ベクトルを含むセクシズムコンテンツの新しい階層的分類,i)細粒度ラベルによる2万件のソーシャルメディアコメントデータセット,およびモデル適応のための大きな未ラベルデータセット,iii)ベースラインモデル,および,課題への参加者の提出方法,結果,エラーの分析である。
論文 参考訳(メタデータ) (2023-03-07T20:28:39Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - SexWEs: Domain-Aware Word Embeddings via Cross-lingual Semantic
Specialisation for Chinese Sexism Detection in Social Media [23.246615034191553]
性差別検出のための言語間ドメイン認識セマンティック・スペシャライゼーション・システムを開発した。
我々は、高リソース言語(英語)からの性差別のセマンティックリソースを活用し、ターゲット言語(中国語)の事前学習された単語ベクトルを専門化し、ドメイン知識を注入する。
他の専門化アプローチや中国語のベースライン語ベクトルと比較すると,本質的評価と外生的評価の両方において,SexWEsの平均スコアは0.033と0.064である。
論文 参考訳(メタデータ) (2022-11-15T19:00:20Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - "Call me sexist, but...": Revisiting Sexism Detection Using
Psychological Scales and Adversarial Samples [2.029924828197095]
我々は、性差別の異なる側面を心理学的尺度でそれらの実践に基礎を置いて概説する。
このスケールから、ソーシャルメディアにおける性差別のためのコードブックを導き、既存のデータセットや新しいデータセットに注釈を付けるために使用します。
結果は、現在の機械学習モデルは、性差別の非常に狭い言語マーカーの集合を拾い上げ、ドメイン外の例にうまく一般化しないことを示唆している。
論文 参考訳(メタデータ) (2020-04-27T13:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。