論文の概要: Identifying gender bias in blockbuster movies through the lens of
machine learning
- arxiv url: http://arxiv.org/abs/2211.12504v1
- Date: Mon, 21 Nov 2022 09:41:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 13:45:22.655895
- Title: Identifying gender bias in blockbuster movies through the lens of
machine learning
- Title(参考訳): 機械学習を用いたブロックバスター映画におけるジェンダーバイアスの同定
- Authors: Muhammad Junaid Haris, Aanchal Upreti, Melih Kurtaran, Filip Ginter,
Sebastien Lafond, Sepinoud Azimi
- Abstract要約: 我々は、自然言語処理技術を用いて、異なるジャンルの映画と、派生した感情と感情のスクリプトを収集した。
映画では, 男女の性格的特徴が, 社会的ステレオタイプと一致していることが明らかとなった。
数学と機械学習のテクニックを使って、男性が女性よりも支配的かつ熱心であることが示されるバイアスを見つけました。
- 参考スコア(独自算出の注目度): 0.5023676240063351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of gender bias is highly prevalent and well known. In this paper,
we have analysed the portrayal of gender roles in English movies, a medium that
effectively influences society in shaping people's beliefs and opinions. First,
we gathered scripts of films from different genres and derived sentiments and
emotions using natural language processing techniques. Afterwards, we converted
the scripts into embeddings, i.e. a way of representing text in the form of
vectors. With a thorough investigation, we found specific patterns in male and
female characters' personality traits in movies that align with societal
stereotypes. Furthermore, we used mathematical and machine learning techniques
and found some biases wherein men are shown to be more dominant and envious
than women, whereas women have more joyful roles in movies. In our work, we
introduce, to the best of our knowledge, a novel technique to convert dialogues
into an array of emotions by combining it with Plutchik's wheel of emotions.
Our study aims to encourage reflections on gender equality in the domain of
film and facilitate other researchers in analysing movies automatically instead
of using manual approaches.
- Abstract(参考訳): ジェンダーバイアスの問題は広く知られています。
本稿では,人々の信念や意見を形作る上で,社会に効果的に影響を与えるメディアである英語映画におけるジェンダー役割の描写について分析した。
まず、自然言語処理技術を用いて、異なるジャンルの映画の脚本を集め、感情や感情を抽出した。
その後、スクリプトを埋め込みに変換しました。つまり、テキストをベクトルの形で表現する方法です。
徹底的な調査により,社会的なステレオタイプに沿った映画において,男女の性格特性に特有のパターンが見つかった。
さらに, 数学や機械学習の手法を用いて, 男性の方が女性より支配的であり, 熱心であるのに対して, 女性は映画でより楽しい役割を担っているという偏見を見出した。
私たちの研究では、私たちの知識を最大限に活用し、plutchikの感情の輪と組み合わせて、対話を一連の感情に変換する新しいテクニックを紹介します。
本研究の目的は、フィルム領域における男女平等の反映を奨励し、他の研究者が手動で映画を自動的に分析することを促進することである。
関連論文リスト
- Angry Men, Sad Women: Large Language Models Reflect Gendered Stereotypes
in Emotion Attribution [21.42276990284762]
本研究は,感情がジェンダー化されているか,社会的ステレオタイプに基づくのかを考察する。
すべてのモデルは、ジェンダーステレオタイプの影響を受けながら、一貫して性的な感情を示す。
私たちの研究は、言語、性別、感情の間の複雑な社会的相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-03-05T17:04:05Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - A Moral- and Event- Centric Inspection of Gender Bias in Fairy Tales at
A Large Scale [50.92540580640479]
7つの文化から得られた624個の妖精物語を含む妖精物語データセットにおいて,ジェンダーバイアスを計算的に解析した。
その結果,男性キャラクターの数は女性キャラクターの2倍であり,男女表現が不均等であることが判明した。
女性キャラクターは、注意、忠誠、尊厳に関する道徳的な言葉とより関連しているのに対し、男性キャラクターは、公正、権威に関する道徳的な単語とより関連している。
論文 参考訳(メタデータ) (2022-11-25T19:38:09Z) - Large scale analysis of gender bias and sexism in song lyrics [3.437656066916039]
我々は,手動で注釈付けされたポピュラーソングの小さなサンプルを用いて,以前の研究よりも大規模な性差別的な歌詞を同定した。
性差別的なコンテンツは、特に男性アーティストやBillboardチャートに掲載されている人気曲から、時間とともに増えていくだろう。
これは、このタイプの最初の大規模分析であり、大衆文化のそのような影響力のある部分における言語使用に関する洞察を与えている。
論文 参考訳(メタデータ) (2022-08-03T13:18:42Z) - Uncovering Implicit Gender Bias in Narratives through Commonsense
Inference [21.18458377708873]
モデル生成物語における主人公に関連する性別バイアスについて検討する。
暗黙のバイアスに注目し、コモンセンス推論エンジンを使ってそれらを明らかにする。
論文 参考訳(メタデータ) (2021-09-14T04:57:45Z) - PowerTransformer: Unsupervised Controllable Revision for Biased Language
Correction [62.46299488465803]
文字表現における暗黙的かつ潜在的に望ましくないバイアスを修正するために、与えられたテキストを書き換えることを目的とした新しいリビジョンタスクを定式化する。
本稿では,意味フレームのレンズを通してテキストを除去する手法としてPowerTransformerを紹介する。
提案手法は, 関連するタスクから, アブレーションや既存メソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T18:05:48Z) - Computational appraisal of gender representativeness in popular movies [0.0]
本稿では、このような経験的観測をスケールアップするために、自動計算法がどのように用いられるかを説明する。
具体的には、30年以上にわたる人気映画の幅広いセットに顔と性別検出アルゴリズムを適用し、スクリーン上での男女のプレゼンスを大規模に評価する。
論文 参考訳(メタデータ) (2020-09-16T13:15:11Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Measuring Female Representation and Impact in Films over Time [78.5821575986965]
女性は常に映画で過小評価され、最近になって映画における女性の表現が改善されるまではそうではなかった。
そこで我々は,新しい尺度,女性キャスト比を提案し,一般的に使用されているベクデル試験結果と比較した。
論文 参考訳(メタデータ) (2020-01-10T15:29:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。