論文の概要: Gender Biases in LLMs: Higher intelligence in LLM does not necessarily solve gender bias and stereotyping
- arxiv url: http://arxiv.org/abs/2409.19959v2
- Date: Sat, 15 Feb 2025 20:01:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 17:33:58.948579
- Title: Gender Biases in LLMs: Higher intelligence in LLM does not necessarily solve gender bias and stereotyping
- Title(参考訳): LLMにおけるジェンダーバイアス:LDMにおける高次知能は必ずしもジェンダーバイアスとステレオタイピングを解決しない
- Authors: Rajesh Ranjan, Shailja Gupta, Surya Naranyan Singh,
- Abstract要約: 大規模言語モデル(LLM)は、生命のあらゆる面で応用されているが、偏見、特にジェンダーのステレオタイピングに対する感受性は、倫理的懸念を引き起こす。
本研究では,新しい方法論,ペルソナに基づく枠組み,および高知能LLMがそのようなバイアスを低減させるか否かを調査するためのユニセックス名手法を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large Language Models (LLMs) are finding applications in all aspects of life, but their susceptibility to biases, particularly gender stereotyping, raises ethical concerns. This study introduces a novel methodology, a persona-based framework, and a unisex name methodology to investigate whether higher-intelligence LLMs reduce such biases. We analyzed 1400 personas generated by two prominent LLMs, revealing that systematic biases persist even in LLMs with higher intelligence and reasoning capabilities. o1 rated males higher in competency (8.1) compared to females (7.9) and non-binary (7.80). The analysis reveals persistent stereotyping across fields like engineering, data, and technology, where the presence of males dominates. Conversely, fields like design, art, and marketing show a stronger presence of females, reinforcing societal notions that associate creativity and communication with females. This paper suggests future directions to mitigate such gender bias, reinforcing the need for further research to reduce biases and create equitable AI models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、生命のあらゆる面で応用されているが、偏見、特にジェンダーのステレオタイピングに対する感受性は、倫理的懸念を引き起こす。
本研究では,新しい方法論,ペルソナに基づく枠組み,および高知能LLMがそのようなバイアスを低減させるか否かを調査するためのユニセックス名手法を紹介する。
2つの著名なLSMが生成した1400個のペルソナを分析し,高い知性と推論能力を有するLSMにおいても,体系的バイアスが持続していることを明らかにした。
o1は、雌(7.9)と非二分体(7.80)に比べて有能 (8.1) である。
この分析によって、オスの存在が支配する工学、データ、技術といった分野にまたがる永続的なステレオタイピングが明らかになる。
逆に、デザイン、アート、マーケティングといった分野は女性の存在を強く示し、女性の創造性とコミュニケーションを結び付ける社会的概念を強化する。
本稿では、このようなジェンダーバイアスを緩和し、バイアスを減らすためのさらなる研究の必要性を強化し、公平なAIモデルを作成するための今後の方向性を提案する。
関連論文リスト
- LLMs Reproduce Stereotypes of Sexual and Gender Minorities [7.068680287596106]
我々は、二進圏を超えた性や性別のマイノリティに対する大きな言語モデルのバイアスについて研究する。
分析の結果, LLMは創造的執筆において性・性マイノリティのステレオタイプ表現を生成することがわかった。
論文 参考訳(メタデータ) (2025-01-10T12:46:39Z) - Popular LLMs Amplify Race and Gender Disparities in Human Mobility [2.601262068492271]
本研究では,大規模言語モデル (LLM) が人種や性別に基づく人体移動の予測に偏りを示すかどうかを検討する。
LLMは、既存の社会的バイアスをよく反映し、増幅する。
論文 参考訳(メタデータ) (2024-11-18T19:41:20Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Evaluating Gender, Racial, and Age Biases in Large Language Models: A Comparative Analysis of Occupational and Crime Scenarios [0.0]
本稿では,Large Language Models(LLMs)におけるバイアスについて検討する。
LLMは、様々な職業において、男性よりも頻繁に女性キャラクターを描いていることが判明した。
性別と人種の偏見を減らそうとする努力は、しばしば1つのサブクラスを超越する結果をもたらす。
論文 参考訳(メタデータ) (2024-09-22T20:21:20Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - Gender bias and stereotypes in Large Language Models [0.6882042556551611]
本稿では,ジェンダーステレオタイプに関する大規模言語モデルの振る舞いについて考察する。
我々は、WinoBiasとは違って、性別バイアスの存在をテストするための単純なパラダイムを用いています。
a) LLMは、人の性別とステレオタイプ的に一致した職業を選択する確率が3~6倍、(b) これらの選択は、公務員の統計に反映された基礎的真実よりも人々の知覚に適合し、(d) LLMは、我々の研究項目の95%の時間において重要な曖昧さを無視する。
論文 参考訳(メタデータ) (2023-08-28T22:32:05Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。