論文の概要: Large scale analysis of gender bias and sexism in song lyrics
- arxiv url: http://arxiv.org/abs/2208.02052v3
- Date: Sun, 2 Apr 2023 21:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 01:06:20.783144
- Title: Large scale analysis of gender bias and sexism in song lyrics
- Title(参考訳): 歌詞における性バイアスと性差別の大規模分析
- Authors: Lorenzo Betti, Carlo Abrate, Andreas Kaltenbrunner
- Abstract要約: 我々は,手動で注釈付けされたポピュラーソングの小さなサンプルを用いて,以前の研究よりも大規模な性差別的な歌詞を同定した。
性差別的なコンテンツは、特に男性アーティストやBillboardチャートに掲載されている人気曲から、時間とともに増えていくだろう。
これは、このタイプの最初の大規模分析であり、大衆文化のそのような影響力のある部分における言語使用に関する洞察を与えている。
- 参考スコア(独自算出の注目度): 3.437656066916039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We employ Natural Language Processing techniques to analyse 377808 English
song lyrics from the "Two Million Song Database" corpus, focusing on the
expression of sexism across five decades (1960-2010) and the measurement of
gender biases. Using a sexism classifier, we identify sexist lyrics at a larger
scale than previous studies using small samples of manually annotated popular
songs. Furthermore, we reveal gender biases by measuring associations in word
embeddings learned on song lyrics. We find sexist content to increase across
time, especially from male artists and for popular songs appearing in Billboard
charts. Songs are also shown to contain different language biases depending on
the gender of the performer, with male solo artist songs containing more and
stronger biases. This is the first large scale analysis of this type, giving
insights into language usage in such an influential part of popular culture.
- Abstract(参考訳): 我々は「200万曲データベース」コーパスから377808の英語歌詞を解析するために自然言語処理技術を用いて、性差別の表現(1960-2010年)と性バイアスの測定に焦点を当てた。
性差別分類器を用いて、手動で注釈付けされたポピュラーソングの小さなサンプルを用いて、過去の研究よりも大規模な性差別的歌詞を同定する。
さらに,歌詞から学習した単語埋め込みの関連を計測し,性別バイアスを明らかにする。
セクシーなコンテンツは、特に男性アーティストや、ビルボードのチャートに登場する人気曲から、時間とともに増えていくだろう。
歌は演奏者の性別によって異なる言語バイアスを含むことも示されており、男性ソロアーティストの歌はより強いバイアスを含む。
これはこのタイプの大規模な分析としては初めてであり、大衆文化の影響力のある部分における言語使用について洞察を与えている。
関連論文リスト
- Beats of Bias: Analyzing Lyrics with Topic Modeling and Gender Bias Measurements [1.5379084885764847]
本稿では,英語の歌詞におけるジェンダーバイアスの分析と判断に,トピックモデリングとバイアス計測技術を用いる。
我々は多種多様な話題,特に最大集団において,多量の挑発的・偽義的な歌詞を観察した。
インテリジェンスと強さに関連する単語は、外見や弱さよりも、ジャンルにまたがる男性バイアスを示す傾向にあり、それは女性バイアスの強い単語である。
論文 参考訳(メタデータ) (2024-09-24T10:24:53Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Reflecting the Male Gaze: Quantifying Female Objectification in 19th and 20th Century Novels [3.0623865942628594]
本稿では,性別の偏見を女性客観化の観点から分析する枠組みを提案する。
我々の枠組みは2つの軸に沿って女性の客観性を測定する。
私たちの枠組みを19世紀と20世紀の小説に適用すると、女性の客観化の証拠が明らかになる。
論文 参考訳(メタデータ) (2024-03-25T20:16:14Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Identifying gender bias in blockbuster movies through the lens of
machine learning [0.5023676240063351]
我々は、自然言語処理技術を用いて、異なるジャンルの映画と、派生した感情と感情のスクリプトを収集した。
映画では, 男女の性格的特徴が, 社会的ステレオタイプと一致していることが明らかとなった。
数学と機械学習のテクニックを使って、男性が女性よりも支配的かつ熱心であることが示されるバイアスを見つけました。
論文 参考訳(メタデータ) (2022-11-21T09:41:53Z) - Gender Bias in Word Embeddings: A Comprehensive Analysis of Frequency,
Syntax, and Semantics [3.4048739113355215]
インターネットコーパスで学習した英語の静的単語埋め込みにおいて,グループベースのバイアスを包括的に分析する。
単一カテゴリー単語埋め込みアソシエーションテストを用いて,性別バイアスの広範性を示す。
語彙の中で最も頻繁な単語1,000のうち、77%が女性よりも男性に関連があることがわかりました。
論文 参考訳(メタデータ) (2022-06-07T15:35:10Z) - Quantifying Gender Bias in Consumer Culture [0.0]
歌の歌詞は、女性に対する社会的なステレオタイプの変化を促進するのに役立つかもしれない。
50年以上にわたる100万曲の自然言語処理は、誤用を定量化している。
女性は望ましい特性(すなわち能力)に結びつく傾向が低く、このバイアスは減少するが、それは持続する。
論文 参考訳(メタデータ) (2022-01-10T05:44:54Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。