論文の概要: Race and Gender in LLM-Generated Personas: A Large-Scale Audit of 41 Occupations
- arxiv url: http://arxiv.org/abs/2510.21011v1
- Date: Thu, 23 Oct 2025 21:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.325598
- Title: Race and Gender in LLM-Generated Personas: A Large-Scale Audit of 41 Occupations
- Title(参考訳): LLM生成ペルソナにおけるレースとジェンダー:41名の大規模オーディション
- Authors: Ilona van der Linden, Sahana Kumar, Arnav Dixit, Aadi Sudan, Smruthi Danda, David C. Anastasiu, Kai Lukoff,
- Abstract要約: 我々は、米国の41の職種を対象に、150万人以上の職種を対象に大規模な監査を行った。
白人(-31pp)、黒人(-9pp)、ヒスパニック人(+17pp)、アジア人(+12pp)が過剰に代表される。
- 参考スコア(独自算出の注目度): 8.497616595095737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI tools are increasingly used to create portrayals of people in occupations, raising concerns about how race and gender are represented. We conducted a large-scale audit of over 1.5 million occupational personas across 41 U.S. occupations, generated by four large language models with different AI safety commitments and countries of origin (U.S., China, France). Compared with Bureau of Labor Statistics data, we find two recurring patterns: systematic shifts, where some groups are consistently under- or overrepresented, and stereotype exaggeration, where existing demographic skews are amplified. On average, White (--31pp) and Black (--9pp) workers are underrepresented, while Hispanic (+17pp) and Asian (+12pp) workers are overrepresented. These distortions can be extreme: for example, across all four models, Housekeepers are portrayed as nearly 100\% Hispanic, while Black workers are erased from many occupations. For HCI, these findings show provider choice materially changes who is visible, motivating model-specific audits and accountable design practices.
- Abstract(参考訳): ジェネレーティブなAIツールは、職業の人々の描写を作成するためにますます使われており、人種や性別がどう表現されるかという懸念が高まっている。
我々は,AIの安全性の異なる4つの大きな言語モデルと起源の国(米国,中国,フランス)が生み出した,41の職種にわたる150万人以上の職業的ペルソナの大規模監査を行った。
労働統計局のデータと比較すると、ある集団が一貫して下位あるいは過剰に表現される体系的なシフトと、既存の人口統計学のスクリューが増幅されるステレオタイプの誇張の2つの繰り返しパターンが見つかる。
平均してホワイト(-31pp)とブラック(-9pp)の労働者は少数派であり、ヒスパニック(+17pp)とアジア(+12pp)の労働者は過剰派である。
例えば、ハウスキーパーはヒスパニックの100\%近くと表現され、黒人労働者は多くの職業から消されている。
HCIでは、プロバイダが目に見えるような大きな変更を選択し、モデル固有の監査と説明責任のある設計プラクティスを動機付けている。
関連論文リスト
- Mitigation of Gender and Ethnicity Bias in AI-Generated Stories through Model Explanations [2.86989372262348]
言語モデルは、特に性別と民族の表現において、そのアウトプットを通じて社会的偏見を伝播させることが示されている。
本稿では,AIが生み出す職業物語におけるジェンダーと民族のバイアスについて検討する。
提案した緩和戦略であるバイアス分析と説明による緩和(BAME)は,2%から20%の範囲の人口表現の改善を明らかにする。
論文 参考訳(メタデータ) (2025-09-03T00:25:25Z) - EuroGEST: Investigating gender stereotypes in multilingual language models [58.871032460235575]
EuroGESTは、英語と29のヨーロッパ言語にまたがるLLMにおける性別ステレオタイプ推論を計測するためのデータセットである。
すべての言語で最強のステレオタイプは、女性が「美」、「共感」、そして「否定」であり、男性は「リーダー」、「強く、タフ」、そして「職業的」であることを示している。
論文 参考訳(メタデータ) (2025-06-04T11:58:18Z) - Who Gets the Callback? Generative AI and Gender Bias [0.030693357740321777]
大規模言語モデル(LLM)は特に高賃金の役割において男性を好む傾向にある。
求人広告における言語的特徴の包括的分析は、モデルレコメンデーションと伝統的なジェンダーステレオタイプとの強い整合性を示す。
我々の調査結果は、AIによる雇用が労働市場のバイアスを持続させ、企業内の公正性と多様性に影響を及ぼす可能性があることを強調している。
論文 参考訳(メタデータ) (2025-04-30T07:55:52Z) - Where Fact Ends and Fairness Begins: Redefining AI Bias Evaluation through Cognitive Biases [77.3489598315447]
事実と公正の境界を識別することは有意義な公正性評価に不可欠である,と我々は主張する。
Fact-or-Fair は (i) 客観的なクエリを記述的, 事実に基づく判断, (ii) 主観的クエリを規範的, 公平性に基づく判断に整合させたベンチマークである。
論文 参考訳(メタデータ) (2025-02-09T10:54:11Z) - Who is better at math, Jenny or Jingzhen? Uncovering Stereotypes in Large Language Models [9.734705470760511]
我々はGlobalBiasを使って世界中の幅広いステレオタイプを研究しています。
与えられた名前に基づいて文字プロファイルを生成し、モデル出力におけるステレオタイプの有効性を評価する。
論文 参考訳(メタデータ) (2024-07-09T14:52:52Z) - What's in a Name? Auditing Large Language Models for Race and Gender Bias [45.1187517058961]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。