論文の概要: Name of Thrones: Evaluating How LLMs Rank Student Names, Race, and Gender in Status Hierarchies
- arxiv url: http://arxiv.org/abs/2504.10797v1
- Date: Tue, 15 Apr 2025 01:47:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:31.993824
- Title: Name of Thrones: Evaluating How LLMs Rank Student Names, Race, and Gender in Status Hierarchies
- Title(参考訳): LLMの学生名, 人種, ジェンダーの階層的評価
- Authors: Annabella Sakunkoo, Jonathan Sakunkoo,
- Abstract要約: 我々は5つの民族にまたがる名前のバリエーションを大規模に分析し、AIがどのように名前バイアスを示すかを調べる。
AIが白人を好んでいるという一般的な仮定とは対照的に、東アジアや一部の文脈では、南アジアの名前が上位にランクされている。
ジェンダーは偏見を緩やかにし、一部の人種集団では不公平な不公平に直面している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Across cultures, names tell a lot about their bearers as they carry deep personal and cultural significance. Names also serve as powerful signals of gender, race, and status in the social hierarchy - a pecking order in which individual positions shape others' expectations on their perceived competence and worth. With the widespread adoption of LLMs and as names are often an input for LLMs, it is crucial to evaluate whether LLMs may sort people into status positions based on first and last names and, if so, whether it is in an unfair, biased fashion. While prior work has primarily investigated biases in first names, little attention has been paid to last names and even less to the combined effects of first and last names. In this study, we conduct a large-scale analysis of name variations across 5 ethnicities to examine how AI exhibits name biases. Our study investigates three key characteristics of inequality and finds that LLMs reflect and reinforce status hierarchies based on names that signal gender and ethnicity as they encode differential expectations of competence, leadership, and economic potential. Contrary to the common assumption that AI tends to favor Whites, we show that East and, in some contexts, South Asian names receive higher rankings. We also disaggregate Asians, a population projected to be the largest immigrant group in the U.S. by 2055. Our results challenge the monolithic Asian model minority assumption, illustrating a more complex and stratified model of bias. Gender moderates biases, with girls facing unfair disadvantages in certain racial groups. Additionally, spanning cultural categories by adopting Western first names improves AI-perceived status for East and Southeast Asian students, particularly for girls. Our findings underscore the importance of intersectional and more nuanced understandings of race, gender, and mixed identities in the evaluation of LLMs.
- Abstract(参考訳): 文化の至る所で、名前は彼らの持ち主について深い個人的・文化的意義を持つものとして多くを語っています。
名前はまた、社会的階層における性別、人種、地位の強力なシグナルとして機能する。
LLMが広く採用され、しばしば名前がLSMの入力となるため、LSMが人々を第一名と最後の名前に基づいてステータスポジションに分類するかどうか、そしてもしそれが不公平で偏見のある方法であるかどうかを評価することが重要である。
先行研究は、主にファーストネームのバイアスを調査してきたが、ラストネームにはほとんど注意が払われておらず、ファーストネームとラストネームの複合効果にはあまり注意が払われていない。
本研究では,5つの民族にまたがる名前のバリエーションを大規模に分析し,AIがどのように名前バイアスを示すかを検討する。
本研究は、不平等の3つの重要な特徴を考察し、LLMが能力、リーダーシップ、経済ポテンシャルの差分期待を符号化し、性別と民族性を示す名前に基づいて、地位階層を反映し、強化していることを見出した。
AIが白人を好んでいるという一般的な仮定とは対照的に、東アジアや一部の文脈では、南アジアの名前が上位にランクされている。
また、アジア系住民は2055年までに米国最大の移民集団になると予想されている。
我々の結果は、より複雑で階層化されたバイアスモデルを示す、モノリシックなアジアモデルマイノリティの仮定に挑戦する。
ジェンダーは偏見を緩やかにし、一部の人種集団では不公平な不公平に直面している。
さらに、西洋のファーストネームを採用することで文化カテゴリーを拡大することで、東アジアや東南アジアの学生、特に女子生徒のAI能力が向上する。
本研究は, LLMの評価において, 人種, 性別, 混合アイデンティティの相互理解の重要性を明らかにするものである。
関連論文リスト
- Popular LLMs Amplify Race and Gender Disparities in Human Mobility [2.601262068492271]
本研究では,大規模言語モデル (LLM) が人種や性別に基づく人体移動の予測に偏りを示すかどうかを検討する。
LLMは、既存の社会的バイアスをよく反映し、増幅する。
論文 参考訳(メタデータ) (2024-11-18T19:41:20Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - On the Influence of Gender and Race in Romantic Relationship Prediction from Large Language Models [21.178861746240507]
本研究では,大規模な言語モデルにおける人種間恋愛関係に対するヘテロノルミティブな偏見と偏見の存在について検討する。
モデルでは,(a)同性字対と(b)異性字対,および(b)アジア名を含む人種内・人種内文字対のロマンチックな関係をブラック,ヒスパニック,ホワイト名と比較すると予測しにくいことを示す。
論文 参考訳(メタデータ) (2024-10-05T01:41:55Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender Labels: Revealing Gender Biases in LLMs through Gender-Neutral Name Predictions [5.896505047270243]
我々は、大きな言語モデルにおける潜在的な性バイアスについて研究し、対処するために、さらにジェンダーカテゴリー、すなわち「中立」を導入する。
性別予測の精度を高めるために出生年を増やすことの影響について検討する。
論文 参考訳(メタデータ) (2024-07-07T05:59:09Z) - Do Large Language Models Discriminate in Hiring Decisions on the Basis of Race, Ethnicity, and Gender? [15.362940175441048]
大規模言語モデル(LLM)が雇用決定において人種と性別に基づく名前の差別を示すか否かを検討する。
我々は、LLMに対して、雇用決定を告げるメールを書くための一連のテンポラティックなプロンプトを設計する。
応募者のファーストネームを操作することで、LLMが受信メールや拒否メールを生成する確率に対する、認識された人種、民族、性別の影響を測定する。
論文 参考訳(メタデータ) (2024-06-15T03:31:16Z) - The Silicon Ceiling: Auditing GPT's Race and Gender Biases in Hiring [0.9499648210774584]
我々は、一般的に使われている1つの大きな言語モデルにおいて、人種と性別の偏見のAI監査を行う。
モデルがステレオタイプに基づくバイアスを反映していることが分かる。
女性の履歴書には経験の少ない職業があり、アジアやヒスパニックの履歴書には移民のマーカーがあった。
論文 参考訳(メタデータ) (2024-05-07T15:39:45Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
社会的偏見は言語機関に現れることがある。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
我々は,最近の3つのLarge Language Model(LLM)生成コンテンツにおいて,言語エージェンシーの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - What's in a Name? Auditing Large Language Models for Race and Gender Bias [45.1187517058961]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。