論文の概要: Identifying gender bias in blockbuster movies through the lens of
machine learning
- arxiv url: http://arxiv.org/abs/2211.12504v1
- Date: Mon, 21 Nov 2022 09:41:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 13:45:22.655895
- Title: Identifying gender bias in blockbuster movies through the lens of
machine learning
- Title(参考訳): 機械学習を用いたブロックバスター映画におけるジェンダーバイアスの同定
- Authors: Muhammad Junaid Haris, Aanchal Upreti, Melih Kurtaran, Filip Ginter,
Sebastien Lafond, Sepinoud Azimi
- Abstract要約: 我々は、自然言語処理技術を用いて、異なるジャンルの映画と、派生した感情と感情のスクリプトを収集した。
映画では, 男女の性格的特徴が, 社会的ステレオタイプと一致していることが明らかとなった。
数学と機械学習のテクニックを使って、男性が女性よりも支配的かつ熱心であることが示されるバイアスを見つけました。
- 参考スコア(独自算出の注目度): 0.5023676240063351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of gender bias is highly prevalent and well known. In this paper,
we have analysed the portrayal of gender roles in English movies, a medium that
effectively influences society in shaping people's beliefs and opinions. First,
we gathered scripts of films from different genres and derived sentiments and
emotions using natural language processing techniques. Afterwards, we converted
the scripts into embeddings, i.e. a way of representing text in the form of
vectors. With a thorough investigation, we found specific patterns in male and
female characters' personality traits in movies that align with societal
stereotypes. Furthermore, we used mathematical and machine learning techniques
and found some biases wherein men are shown to be more dominant and envious
than women, whereas women have more joyful roles in movies. In our work, we
introduce, to the best of our knowledge, a novel technique to convert dialogues
into an array of emotions by combining it with Plutchik's wheel of emotions.
Our study aims to encourage reflections on gender equality in the domain of
film and facilitate other researchers in analysing movies automatically instead
of using manual approaches.
- Abstract(参考訳): ジェンダーバイアスの問題は広く知られています。
本稿では,人々の信念や意見を形作る上で,社会に効果的に影響を与えるメディアである英語映画におけるジェンダー役割の描写について分析した。
まず、自然言語処理技術を用いて、異なるジャンルの映画の脚本を集め、感情や感情を抽出した。
その後、スクリプトを埋め込みに変換しました。つまり、テキストをベクトルの形で表現する方法です。
徹底的な調査により,社会的なステレオタイプに沿った映画において,男女の性格特性に特有のパターンが見つかった。
さらに, 数学や機械学習の手法を用いて, 男性の方が女性より支配的であり, 熱心であるのに対して, 女性は映画でより楽しい役割を担っているという偏見を見出した。
私たちの研究では、私たちの知識を最大限に活用し、plutchikの感情の輪と組み合わせて、対話を一連の感情に変換する新しいテクニックを紹介します。
本研究の目的は、フィルム領域における男女平等の反映を奨励し、他の研究者が手動で映画を自動的に分析することを促進することである。
関連論文リスト
- Computational Analysis of Gender Depiction in the Comedias of Calderón de la Barca [6.978406757882009]
我々は、ペドロ・カルデーン・デ・ラ・バルカ(Pedro Calder'on de la Barca)の非宗教作品(メディア)におけるジェンダー描写を研究する方法を開発した。
ジェンダー分類器を用いて100以上の戯曲のコーパスからインサイトを収集し,モデル説明可能性(属性)手法を適用した。
性別予測モデルでは, 女性と男性との特徴が異なり, 実際に有効な精度で識別できることがわかった。
論文 参考訳(メタデータ) (2024-11-06T13:13:33Z) - What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - Multi-channel Emotion Analysis for Consensus Reaching in Group Movie Recommendation Systems [0.0]
本稿では,3つの異なるチャンネルからの感情を調査し,グループ映画提案に対する新たなアプローチを提案する。
我々は,Jaccard類似度指数を用いて,各被験者の感情的嗜好と映画選択とを一致させる。
グループのコンセンサスレベルはファジィ推論システムを用いて計算される。
論文 参考訳(メタデータ) (2024-04-21T21:19:31Z) - Angry Men, Sad Women: Large Language Models Reflect Gendered Stereotypes in Emotion Attribution [20.21748776472278]
本研究は,感情がジェンダー化されているか,社会的ステレオタイプに基づくのかを考察する。
すべてのモデルは、ジェンダーステレオタイプの影響を受けながら、一貫して性的な感情を示す。
私たちの研究は、言語、性別、感情の間の複雑な社会的相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-03-05T17:04:05Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - A Moral- and Event- Centric Inspection of Gender Bias in Fairy Tales at
A Large Scale [50.92540580640479]
7つの文化から得られた624個の妖精物語を含む妖精物語データセットにおいて,ジェンダーバイアスを計算的に解析した。
その結果,男性キャラクターの数は女性キャラクターの2倍であり,男女表現が不均等であることが判明した。
女性キャラクターは、注意、忠誠、尊厳に関する道徳的な言葉とより関連しているのに対し、男性キャラクターは、公正、権威に関する道徳的な単語とより関連している。
論文 参考訳(メタデータ) (2022-11-25T19:38:09Z) - Uncovering Implicit Gender Bias in Narratives through Commonsense
Inference [21.18458377708873]
モデル生成物語における主人公に関連する性別バイアスについて検討する。
暗黙のバイアスに注目し、コモンセンス推論エンジンを使ってそれらを明らかにする。
論文 参考訳(メタデータ) (2021-09-14T04:57:45Z) - PowerTransformer: Unsupervised Controllable Revision for Biased Language
Correction [62.46299488465803]
文字表現における暗黙的かつ潜在的に望ましくないバイアスを修正するために、与えられたテキストを書き換えることを目的とした新しいリビジョンタスクを定式化する。
本稿では,意味フレームのレンズを通してテキストを除去する手法としてPowerTransformerを紹介する。
提案手法は, 関連するタスクから, アブレーションや既存メソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T18:05:48Z) - Computational appraisal of gender representativeness in popular movies [0.0]
本稿では、このような経験的観測をスケールアップするために、自動計算法がどのように用いられるかを説明する。
具体的には、30年以上にわたる人気映画の幅広いセットに顔と性別検出アルゴリズムを適用し、スクリーン上での男女のプレゼンスを大規模に評価する。
論文 参考訳(メタデータ) (2020-09-16T13:15:11Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Measuring Female Representation and Impact in Films over Time [78.5821575986965]
女性は常に映画で過小評価され、最近になって映画における女性の表現が改善されるまではそうではなかった。
そこで我々は,新しい尺度,女性キャスト比を提案し,一般的に使用されているベクデル試験結果と比較した。
論文 参考訳(メタデータ) (2020-01-10T15:29:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。