論文の概要: What Does a Software Engineer Look Like? Exploring Societal Stereotypes in LLMs
- arxiv url: http://arxiv.org/abs/2501.03569v1
- Date: Tue, 07 Jan 2025 06:44:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:50:19.156755
- Title: What Does a Software Engineer Look Like? Exploring Societal Stereotypes in LLMs
- Title(参考訳): ソフトウェアエンジニアはどう見えるか? LLMの社会ステレオタイプを探る
- Authors: Muneera Bano, Hashini Gunatilake, Rashina Hoda,
- Abstract要約: 本研究では,OpenAIのGPT-4とMicrosoft Copilotが,性別や人種のステレオタイプをいかに強化するかを検討する。
それぞれのLSMを用いて300のプロファイルを生成し,100の性別ベースと50の性別ニュートラルプロファイルで構成された。
分析の結果,両モデルとも男性とコーカサス人のプロファイルが好まれていることが明らかとなった。
- 参考スコア(独自算出の注目度): 9.007321855123882
- License:
- Abstract: Large language models (LLMs) have rapidly gained popularity and are being embedded into professional applications due to their capabilities in generating human-like content. However, unquestioned reliance on their outputs and recommendations can be problematic as LLMs can reinforce societal biases and stereotypes. This study investigates how LLMs, specifically OpenAI's GPT-4 and Microsoft Copilot, can reinforce gender and racial stereotypes within the software engineering (SE) profession through both textual and graphical outputs. We used each LLM to generate 300 profiles, consisting of 100 gender-based and 50 gender-neutral profiles, for a recruitment scenario in SE roles. Recommendations were generated for each profile and evaluated against the job requirements for four distinct SE positions. Each LLM was asked to select the top 5 candidates and subsequently the best candidate for each role. Each LLM was also asked to generate images for the top 5 candidates, providing a dataset for analysing potential biases in both text-based selections and visual representations. Our analysis reveals that both models preferred male and Caucasian profiles, particularly for senior roles, and favoured images featuring traits such as lighter skin tones, slimmer body types, and younger appearances. These findings highlight underlying societal biases influence the outputs of LLMs, contributing to narrow, exclusionary stereotypes that can further limit diversity and perpetuate inequities in the SE field. As LLMs are increasingly adopted within SE research and professional practices, awareness of these biases is crucial to prevent the reinforcement of discriminatory norms and to ensure that AI tools are leveraged to promote an inclusive and equitable engineering culture rather than hinder it.
- Abstract(参考訳): 大規模言語モデル(LLM)は急速に普及し、ヒューマンライクなコンテンツを生成する能力のため、プロフェッショナルなアプリケーションに組み込まれている。
しかし、LCMは社会的バイアスやステレオタイプを強化できるため、アウトプットやレコメンデーションへの不審な依存は問題となる。
本研究では,特に OpenAI の GPT-4 と Microsoft Copilot の LLM が,テキストとグラフィカルのアウトプットを通じて,ソフトウェア工学 (SE) 専門職における性別と人種のステレオタイプを補強する方法について検討する。
性別ベース100名,性別ニュートラル50名からなる300名のプロフィールを,SEロールにおける採用シナリオとして用いた。
各プロファイルに対してレコメンデーションが生成され、4つの異なるSEポジションのジョブ要件に対して評価された。
各LSMは上位5候補を選任し、その後、各役割に最適な候補を選ぶよう求められた。
各LSMは上位5候補の画像も生成するよう求められ、テキストベースの選択と視覚表現の両方における潜在的なバイアスを分析するデータセットを提供する。
分析の結果,両モデルとも男性とコーカサス人の人物像が好まれており,特に高齢者の人物像が好まれており,肌の色調が軽くなったり,体型が薄くなったり,若さが特徴であった。
これらの知見は、社会的バイアスがLLMの出力に影響を与え、SEフィールドの多様性をさらに制限し、不等式を永続させる、狭く排他的なステレオタイプに寄与することを示している。
LLMは、SE研究や専門的な実践においてますます採用されているため、差別的規範の強化を防ぎ、AIツールがそれを妨げるのではなく、包括的で公平なエンジニアリング文化を促進するために活用されることを保証するために、これらのバイアスの認識が不可欠である。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Nigerian Software Engineer or American Data Scientist? GitHub Profile Recruitment Bias in Large Language Models [9.040645392561196]
私たちはOpenAIのChatGPTを使って、4つのリージョンからGitHub User Profileを使って6人のソフトウェア開発チームを募集しています。
結果から,ChatGPTは2つのプロファイルの位置情報文字列をスワップしても,他のリージョンよりも好みを示すことがわかった。
ChatGPTは特定の国のユーザに特定の開発者ロールを割り当てる傾向があり、暗黙の偏見が浮かび上がっていた。
論文 参考訳(メタデータ) (2024-09-19T08:04:30Z) - AI AI Bias: Large Language Models Favor Their Own Generated Content [0.1979158763744267]
大規模言語モデル (LLM) が人間によって書かれたテキストに対して LLM によって生成されたテキストに偏りがあるかどうかを検証する。
以上の結果から,LLMベースのAIがLLM生成コンテンツを好む傾向が一貫したことが明らかとなった。
これは、AIシステムが暗黙的に人間を差別し、AIエージェントに不公平な優位性を与える可能性を示唆している。
論文 参考訳(メタデータ) (2024-07-09T13:15:14Z) - Hire Me or Not? Examining Language Model's Behavior with Occupation Attributes [7.718858707298602]
大規模言語モデル(LLM)は、採用やレコメンデーションシステムなど、プロダクションパイプラインに広く統合されている。
本稿では、職業意思決定の文脈において、ジェンダーステレオタイプに関するLCMの行動について検討する。
論文 参考訳(メタデータ) (2024-05-06T18:09:32Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Investigating Subtler Biases in LLMs: Ageism, Beauty, Institutional, and Nationality Bias in Generative Models [0.0]
本稿では, 年齢や美しさなど, 研究の少ない, 連続的な, 次元に沿ったバイアスについて検討する。
実験心理学において, LLMは, 特定の社会集団に対して, 肯定的, 否定的感情の偏見を広く抱いているか, あるいは「美しいものは良い」バイアスと類似しているかを問う。
論文 参考訳(メタデータ) (2023-09-16T07:07:04Z) - Gender bias and stereotypes in Large Language Models [0.6882042556551611]
本稿では,ジェンダーステレオタイプに関する大規模言語モデルの振る舞いについて考察する。
我々は、WinoBiasとは違って、性別バイアスの存在をテストするための単純なパラダイムを用いています。
a) LLMは、人の性別とステレオタイプ的に一致した職業を選択する確率が3~6倍、(b) これらの選択は、公務員の統計に反映された基礎的真実よりも人々の知覚に適合し、(d) LLMは、我々の研究項目の95%の時間において重要な曖昧さを無視する。
論文 参考訳(メタデータ) (2023-08-28T22:32:05Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - ElitePLM: An Empirical Study on General Language Ability Evaluation of
Pretrained Language Models [78.08792285698853]
本稿では,事前学習型言語モデル(ElitePLM)の汎用言語能力評価に関する大規模実証的研究について述べる。
実験の結果,(1)訓練対象の異なるPLMは異なる能力試験に適しており,(2)下流タスクの微調整PLMはデータサイズや分布に敏感であり,(3)PLMは類似タスク間の転送性に優れていた。
論文 参考訳(メタデータ) (2022-05-03T14:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。