論文の概要: Are Female Carpenters like Blue Bananas? A Corpus Investigation of Occupation Gender Typicality
- arxiv url: http://arxiv.org/abs/2408.02948v1
- Date: Tue, 6 Aug 2024 04:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 14:59:44.462607
- Title: Are Female Carpenters like Blue Bananas? A Corpus Investigation of Occupation Gender Typicality
- Title(参考訳): 女性大工はブルーバナナが好きか? 職業性特例のコーパス調査
- Authors: Da Ju, Karen Ulrich, Adina Williams,
- Abstract要約: バナナの黄色い色が典型的であるのと同様に、職業の典型的な性別も存在する。
性別の言及は特に女性の職業性と相関している。
- 参考スコア(独自算出の注目度): 17.568141118564597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People tend to use language to mention surprising properties of events: for example, when a banana is blue, we are more likely to mention color than when it is yellow. This fact is taken to suggest that yellowness is somehow a typical feature of bananas, and blueness is exceptional. Similar to how a yellow color is typical of bananas, there may also be genders that are typical of occupations. In this work, we explore this question using information theoretic techniques coupled with corpus statistic analysis. In two distinct large corpora, we do not find strong evidence that occupations and gender display the same patterns of mentioning as do bananas and color. Instead, we find that gender mentioning is correlated with femaleness of occupation in particular, suggesting perhaps that woman-dominated occupations are seen as somehow ``more gendered'' than male-dominated ones, and thereby they encourage more gender mentioning overall.
- Abstract(参考訳): 例えば、バナナが青である場合、黄色である場合よりも色に言及する傾向があります。
この事実は、黄さがバナナの典型的な特徴であり、青さは例外的であることを示唆している。
バナナの黄色い色が典型的であるのと同様に、職業の典型的な性別も存在する。
本研究では,情報理論とコーパス統計解析を組み合わせた手法を用いて,この問題を考察する。
2つの異なる大きなコーパスでは、職業や性別がバナナや色と同じパターンを示すという強い証拠は見つからない。
むしろ、性別の言及は特に女性の職業性と相関していることがわかり、おそらく女性支配の職業は、男性支配の職業よりも「より性的な」ものとして見なされ、それによって全体としての性別の言及が促進されると考えられる。
関連論文リスト
- Gender Bias in Instruction-Guided Speech Synthesis Models [55.2480439325792]
本研究では、モデルが職業関連プロンプトをどのように解釈するかにおける潜在的な性別バイアスについて検討する。
このようなプロンプトを解釈する際に、これらのモデルがジェンダーステレオタイプを増幅する傾向を示すかどうかを検討する。
実験の結果, ある職業において, 性別偏見を示す傾向が示された。
論文 参考訳(メタデータ) (2025-02-08T17:38:24Z) - Gender Bias and Property Taxes [50.18156030818883]
我々は、10万人以上の不動産税告訴審理記録と2.7年以上の関連音声記録を分析した。
女性のアパレルは、聴聞会で男性アパレルよりも体系的に劣る。
我々の結果は、性別バイアスは、少なくとも部分的には、ABBパネリストの一部に関する無声の信念と認識によって引き起こされるという考え方と一致している。
論文 参考訳(メタデータ) (2024-12-17T07:14:23Z) - Evaluating Gender Bias in Large Language Models [0.8636148452563583]
本研究では,大規模言語モデル (LLMs) が職業文脈における代名詞選択における性別バイアスの程度について検討した。
対象とする職業は、男性に有意な存在感を持つものから女性に有意な集中力を持つものまで幅広い。
その結果, モデルの代名詞選択と, 労働力データに存在する性別分布との間には, 正の相関関係が認められた。
論文 参考訳(メタデータ) (2024-11-14T22:23:13Z) - Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts [15.676219253088211]
大規模言語モデル(LLM)におけるジェンダーエクイティを意思決定レンズを用いて検討する。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
論文 参考訳(メタデータ) (2024-10-14T20:50:11Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - Analysing Gender Bias in Text-to-Image Models using Object Detection [0.0]
性別を特定し、曖昧にオブジェクトを参照するペアプロンプトを使用することで、特定のオブジェクトが特定の性別と関連付けられているかどうかを調べることができる。
男性はネクタイ、ナイフ、トラック、野球のバット、自転車などの生成物をより頻繁に促す。
女性のプロンプトは、ハンドバッグ、傘、ボウル、ボトル、カップなどのオブジェクトを生成する傾向があった。
論文 参考訳(メタデータ) (2023-07-16T12:31:29Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Run Like a Girl! Sports-Related Gender Bias in Language and Vision [5.762984849322816]
ジェンダーバイアスを2つの言語とビジョンのデータセットで分析する。
両者のデータセットは女性を過小評価しており、女性の視認を促進する。
これらの命名データに基づいて訓練された計算モデルはバイアスを再現する。
論文 参考訳(メタデータ) (2023-05-23T18:52:11Z) - Model-Agnostic Gender Debiased Image Captioning [29.640940966944697]
イメージキャプションモデルは、トレーニングセットにおける有害な社会的バイアスを永続化し、増幅することが知られている。
我々は、合成バイアスされたサンプルから学習し、両方のバイアスを減少させるLIBRAというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:30:49Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。