論文の概要: Early review of Gender Bias of OpenAI o1-mini: Higher Intelligence of LLM does not necessarily solve Gender Bias and Stereotyping issues
- arxiv url: http://arxiv.org/abs/2409.19959v1
- Date: Mon, 30 Sep 2024 05:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 16:37:45.616437
- Title: Early review of Gender Bias of OpenAI o1-mini: Higher Intelligence of LLM does not necessarily solve Gender Bias and Stereotyping issues
- Title(参考訳): OpenAI o1-miniのジェンダーバイアスの早期レビュー: LLMの高次知能は必ずしもジェンダーバイアスとステレオタイピングの問題を解決するとは限らない
- Authors: Rajesh Ranjan, Shailja Gupta, Surya Naranyan Singh,
- Abstract要約: 我々は,OpenAI o1-miniモデルの初期評価を行い,性別の傾向と偏りを解析した。
本研究は, GPT-4o mini 700人, o1-mini 350人を対象に行ったもので, 性格特性や嗜好に関する傾向が改善したにもかかわらず, 有意な性別バイアスが残ることが明らかとなった。
例えば、o1-miniの男子は8.06点、女子は7.88点、非バイナリは7.80点である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present an early evaluation of the OpenAI o1-mini model, analyzing its performance in gender inclusivity and bias. Our research, conducted on 700 personas 350 from GPT-4o mini and 350 from o1-mini, reveals that despite improvements in inclusivity regarding personality traits and preferences, significant gender biases remain. For instance, o1-mini rated male personas higher in competency, with a score of 8.06, compared to female personas at 7.88 and non-binary personas at 7.80. Additionally, o1-mini assigned PhD roles to 28% of male personas but only 22.4% of females and 0% of non-binary personas. Male personas were also more likely to be perceived as successful founders, at 69.4%, and CEOs, at 62.17%, compared to female personas at 67.97% and 61.11%, and non-binary personas at 65.7% and 58.37%. The analysis reveals persistent gender biases across fields like Engineering, Data, and Technology, where males dominate, reflecting traditional stereotypes. Conversely, fields like Design, Art, and Marketing show a stronger presence of females, reinforcing societal notions that associate creativity and communication with females. These findings highlight ongoing challenges in mitigating gender bias, reinforcing the need for further interventions to ensure equitable representation across all genders in AI models.
- Abstract(参考訳): 本稿では,OpenAI o1-miniモデルの初期評価を行い,性別の傾向と偏りを解析した。
本研究は, GPT-4o mini 700人, o1-mini 350人を対象に行った結果, 性格特性や嗜好に関する傾向が改善したにもかかわらず, 有意な性別バイアスが残ることが明らかとなった。
例えば、o1-miniの男子は8.06点、女子は7.88点、非バイナリは7.80点である。
さらに、o1-miniは男性28%にPhDを割り当てたが、女性22.4%、非バイナリ・ペルソナ0%に留まった。
男性ペルソナは69.4%、CEOは62.17%、女性ペルソナは67.97%、61.11%、非バイナリペルソナは65.7%、非バイナリペルソナは58.37%であった。
この分析によって、男性は伝統的なステレオタイプを反映して、エンジニアリング、データ、テクノロジーといった分野にまたがる永続的な性別バイアスが明らかになる。
逆に、デザイン、アート、マーケティングといった分野は女性の存在を強く示し、創造性と女性とのコミュニケーションを結び付ける社会的概念を強化する。
これらの発見は、ジェンダーバイアスを緩和する上で進行中の課題を強調し、AIモデルにおけるすべてのジェンダーの平等な表現を保証するためのさらなる介入の必要性を強化する。
関連論文リスト
- LLMs Reproduce Stereotypes of Sexual and Gender Minorities [7.068680287596106]
我々は、二進圏を超えた性や性別のマイノリティに対する大きな言語モデルのバイアスについて研究する。
分析の結果, LLMは創造的執筆において性・性マイノリティのステレオタイプ表現を生成することがわかった。
論文 参考訳(メタデータ) (2025-01-10T12:46:39Z) - Popular LLMs Amplify Race and Gender Disparities in Human Mobility [2.601262068492271]
本研究では,大規模言語モデル (LLM) が人種や性別に基づく人体移動の予測に偏りを示すかどうかを検討する。
LLMは、既存の社会的バイアスをよく反映し、増幅する。
論文 参考訳(メタデータ) (2024-11-18T19:41:20Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Evaluating Gender, Racial, and Age Biases in Large Language Models: A Comparative Analysis of Occupational and Crime Scenarios [0.0]
本稿では,Large Language Models(LLMs)におけるバイアスについて検討する。
LLMは、様々な職業において、男性よりも頻繁に女性キャラクターを描いていることが判明した。
性別と人種の偏見を減らそうとする努力は、しばしば1つのサブクラスを超越する結果をもたらす。
論文 参考訳(メタデータ) (2024-09-22T20:21:20Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - Gender bias and stereotypes in Large Language Models [0.6882042556551611]
本稿では,ジェンダーステレオタイプに関する大規模言語モデルの振る舞いについて考察する。
我々は、WinoBiasとは違って、性別バイアスの存在をテストするための単純なパラダイムを用いています。
a) LLMは、人の性別とステレオタイプ的に一致した職業を選択する確率が3~6倍、(b) これらの選択は、公務員の統計に反映された基礎的真実よりも人々の知覚に適合し、(d) LLMは、我々の研究項目の95%の時間において重要な曖昧さを無視する。
論文 参考訳(メタデータ) (2023-08-28T22:32:05Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。