論文の概要: Gender Trouble in Language Models: An Empirical Audit Guided by Gender Performativity Theory
- arxiv url: http://arxiv.org/abs/2505.14080v1
- Date: Tue, 20 May 2025 08:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.93814
- Title: Gender Trouble in Language Models: An Empirical Audit Guided by Gender Performativity Theory
- Title(参考訳): 言語モデルにおけるジェンダー問題:ジェンダー・パフォーマティビティ理論による経験的オーディション
- Authors: Franziska Sofia Hafner, Ana Valdivia, Luc Rocher,
- Abstract要約: 言語モデルは有害な性別のステレオタイプをエンコードし、永続する。
これらのバイナリカテゴリの1つに適切に該当しない性的な用語は削除され、謝罪される。
以上の結果から,言語モデルにおける性障害の定義と対処方法の再評価の必要性が示唆された。
- 参考スコア(独自算出の注目度): 0.19116784879310028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models encode and subsequently perpetuate harmful gendered stereotypes. Research has succeeded in mitigating some of these harms, e.g. by dissociating non-gendered terms such as occupations from gendered terms such as 'woman' and 'man'. This approach, however, remains superficial given that associations are only one form of prejudice through which gendered harms arise. Critical scholarship on gender, such as gender performativity theory, emphasizes how harms often arise from the construction of gender itself, such as conflating gender with biological sex. In language models, these issues could lead to the erasure of transgender and gender diverse identities and cause harms in downstream applications, from misgendering users to misdiagnosing patients based on wrong assumptions about their anatomy. For FAccT research on gendered harms to go beyond superficial linguistic associations, we advocate for a broader definition of 'gender bias' in language models. We operationalize insights on the construction of gender through language from gender studies literature and then empirically test how 16 language models of different architectures, training datasets, and model sizes encode gender. We find that language models tend to encode gender as a binary category tied to biological sex, and that gendered terms that do not neatly fall into one of these binary categories are erased and pathologized. Finally, we show that larger models, which achieve better results on performance benchmarks, learn stronger associations between gender and sex, further reinforcing a narrow understanding of gender. Our findings lead us to call for a re-evaluation of how gendered harms in language models are defined and addressed.
- Abstract(参考訳): 言語モデルは、有害な性別のステレオタイプをエンコードし、その後永続する。
研究は、例えば「女性」や「男」といったジェンダー以外の用語を「女性」や「男性」といったジェンダーの言葉から解き放つことで、これらの害の軽減に成功している。
しかし、このアプローチは、関連性は性的な害が生じる偏見の1つの形態に過ぎず、表面的なもののままである。
性行為論(英語版)のような性に関する批判的な奨学金は、性と生物学的性との混同など、性自体の構築からしばしば害が生じることを強調している。
言語モデルでは、これらの問題はトランスジェンダーやジェンダーの多様なアイデンティティの消去につながり、下流のアプリケーションに害をもたらす可能性がある。
FAccTによる性的被害の研究は、表面的な言語関係を超えて行われるものであり、言語モデルにおける「ジェンダーバイアス」のより広範な定義を提唱する。
ジェンダー研究文献からの言語によるジェンダー構築に関する洞察を運用し、異なるアーキテクチャの16の言語モデル、トレーニングデータセット、性別をエンコードするモデルサイズを実証的に検証する。
言語モデルでは、ジェンダーを生物学的性に関連する二項分類としてエンコードする傾向があり、これらの二項分類の1つに適切に該当しないジェンダー付き用語は消去され、謝罪される。
最後に、パフォーマンスベンチマークでより優れた結果を得る大規模モデルにおいて、性別と性別の関連性についてより強く学習し、さらに性別の狭義の理解を深めることを示す。
以上の結果から,言語モデルにおける性障害の定義と対処方法の再評価の必要性が示唆された。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Generalizing Fairness to Generative Language Models via Reformulation of Non-discrimination Criteria [4.738231680800414]
本稿では、生成言語モデルにおけるジェンダーバイアスの存在を解明し、定量化する方法について研究する。
我々は、独立性、分離性、充足性という3つのよく知られた非識別基準のジェネレーティブAIアナログを導出する。
本研究は,このような対話型言語モデルにおける職業性バイアスの存在に対処するものである。
論文 参考訳(メタデータ) (2024-03-13T14:19:08Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Much Ado About Gender: Current Practices and Future Recommendations for
Appropriate Gender-Aware Information Access [3.3903891679981593]
情報アクセス研究(と開発)は時にジェンダーを利用する。
この研究は、ジェンダーが何であるかの現在の理解と一致していないジェンダーについて様々な仮定を下している。
私たちがレビューするほとんどの論文は、性別が2つのカテゴリに分けることができないことを認めたとしても、性別のバイナリな概念に依存しています。
論文 参考訳(メタデータ) (2023-01-12T01:21:02Z) - Don't Forget About Pronouns: Removing Gender Bias in Language Models
Without Losing Factual Gender Information [4.391102490444539]
英語のテキストでは、ジェンダー情報とジェンダーバイアスの2つのタイプに焦点を当てている。
ジェンダーシグナルを保存しながら表現のステレオタイプバイアスを小さくすることを目的としている。
論文 参考訳(メタデータ) (2022-06-21T21:38:25Z) - Theories of "Gender" in NLP Bias Research [0.0]
NLPにおけるジェンダーバイアスに関する200近い記事を調査した。
記事の大多数は、性別に関する理論を明示していない。
多くの人は、トランス、ノンバイナリ、インターセックスの人々の存在と経験を無視した方法で、性の特徴、社会的性別、言語性について説明している。
論文 参考訳(メタデータ) (2022-05-05T09:20:53Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。