論文の概要: Implicit Bias in LLMs for Transgender Populations
- arxiv url: http://arxiv.org/abs/2602.13253v1
- Date: Mon, 02 Feb 2026 13:56:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.589136
- Title: Implicit Bias in LLMs for Transgender Populations
- Title(参考訳): トランスジェンダー集団におけるLSMのインプシットバイアス
- Authors: Micaela Hirsch, Marina Elichiry, Blas Radi, Tamara Quiroga, David Restrepo, Luciana Benotti, Veronica Xhardez, Jocelyn Dunstan, Enzo Ferrante,
- Abstract要約: 言語モデル(LLM)はLGBTQ+に対する偏見を示すことが示されている。
本研究では,2つの主要なシナリオにおけるトランスジェンダーに対する暗黙の偏見について検討する。
- 参考スコア(独自算出の注目度): 3.685238326694725
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) have been shown to exhibit biases against LGBTQ+ populations. While safety training may lessen explicit expressions of bias, previous work has shown that implicit stereotype-driven associations often persist. In this work, we examine implicit bias toward transgender people in two main scenarios. First, we adapt word association tests to measure whether LLMs disproportionately pair negative concepts with "transgender" and positive concepts with "cisgender". Second, acknowledging the well-documented systemic challenges that transgender people encounter in real-world healthcare settings, we examine implicit biases that may emerge when LLMs are applied to healthcare decision-making. To this end, we design a healthcare appointment allocation task where models act as scheduling agents choosing between cisgender and transgender candidates across medical specialties prone to stereotyping. We evaluate seven LLMs in English and Spanish. Our results show consistent bias in categories such as appearance, risk, and veracity, indicating stronger negative associations with transgender individuals. In the allocation task, transgender candidates are favored for STI and mental health services, while cisgender candidates are preferred in gynecology and breast care. These findings underscore the need for research that address subtle stereotype-driven biases in LLMs to ensure equitable treatment of transgender people in healthcare applications.
- Abstract(参考訳): 言語モデル(LLM)はLGBTQ+に対する偏見を示すことが示されている。
安全性トレーニングはバイアスの明示的な表現を減少させるかもしれないが、以前の研究は暗黙のステレオタイプ駆動の関連がしばしば持続することを示した。
本研究では,2つの主要なシナリオにおけるトランスジェンダーに対する暗黙の偏見について検討する。
まず,LLMが「トランスジェンダー」と「シスジェンダー」との負の概念を不均等に組み合わせているかどうかを測定するために,単語関連試験を適用した。
第二に、トランスジェンダーが現実世界の医療環境で遭遇する、十分に文書化された体系的課題を認識し、LSMが医療意思決定に適用されたときに現れる可能性のある暗黙の偏見を検証する。
この目的のために、我々は、医療専門分野にまたがるシスジェンダーとトランスジェンダーの候補を選別するスケジューリングエージェントとしてモデルが機能する医療アロケーション割り当てタスクを設計し、ステレオタイピングを行う。
英語とスペイン語で7つのLLMを評価した。
以上の結果から, 性別, リスク, 妥当性などのカテゴリーに一貫したバイアスがみられ, トランスジェンダーの個人との負の強い関係が示唆された。
配分タスクでは、トランスジェンダー候補がSTIおよびメンタルヘルスサービスに好まれ、シスジェンダー候補が婦人科と乳房ケアに好まれる。
これらの知見は、医療応用におけるトランスジェンダーの公平な扱いを確保するために、LSMの微妙なステレオタイプ駆動バイアスに対処する研究の必要性を浮き彫りにしている。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Evaluation of Bias Towards Medical Professionals in Large Language Models [11.450991679521605]
GPT-4, Claude-3, Mistral-Largeは, 医療従事者の居住選択に有意な性差と人種的偏見を示した。
実験の結果、ヒスパニック系の女性とアジア系の男性に対して、様々な専門分野の強い嗜好が示された。
論文 参考訳(メタデータ) (2024-06-30T05:55:55Z) - GenderAlign: An Alignment Dataset for Mitigating Gender Bias in Large Language Models [20.98831667981121]
大きな言語モデル(LLM)は、性別バイアスを示すコンテンツを生成する傾向がある。
GenderAlignデータセットは8kのシングルターンダイアログで構成されており、それぞれに "chosen" と "rejected" の応答がペアリングされている。
拒絶された」反応と比較すると、「ちょうせん」反応は性バイアスのレベルが低く、より高い品質を示す。
論文 参考訳(メタデータ) (2024-06-20T01:45:44Z) - MisgenderMender: A Community-Informed Approach to Interventions for Misgendering [29.480032219310157]
間違いを犯し、他人の性別に誤って対処し、深刻な危害を与え、日々の技術に浸透する。
米国におけるジェンダー・ディバースの個人に対する調査を実施することで、ミスジェンダーの介入に関するこの研究の欠如に対処するのはこれが初めてである。
ミスジェンダー, 望ましい解決策, 関連する懸念の頻度に関する調査結果に基づいて, ミスジェンダーの介入タスクと評価データセットであるMisgenderMenderを導入する。
論文 参考訳(メタデータ) (2024-04-23T02:54:00Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。