論文の概要: Adultification Bias in LLMs and Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2506.07282v1
- Date: Sun, 08 Jun 2025 21:02:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.74869
- Title: Adultification Bias in LLMs and Text-to-Image Models
- Title(参考訳): LLMにおけるアダルト化バイアスとテキスト・ツー・イメージモデル
- Authors: Jane Castleman, Aleksandra Korolova,
- Abstract要約: 若い女性の人種やジェンダーの軸に沿った偏見について研究する。
我々は「文化バイアス」に焦点を当てており、黒人の女の子は白人の仲間よりも、より排他的で、性的に親密で、教育可能であると推定される現象である。
- 参考スコア(独自算出の注目度): 55.02903075972816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid adoption of generative AI models in domains such as education, policing, and social media raises significant concerns about potential bias and safety issues, particularly along protected attributes, such as race and gender, and when interacting with minors. Given the urgency of facilitating safe interactions with AI systems, we study bias along axes of race and gender in young girls. More specifically, we focus on "adultification bias," a phenomenon in which Black girls are presumed to be more defiant, sexually intimate, and culpable than their White peers. Advances in alignment techniques show promise towards mitigating biases but vary in their coverage and effectiveness across models and bias types. Therefore, we measure explicit and implicit adultification bias in widely used LLMs and text-to-image (T2I) models, such as OpenAI, Meta, and Stability AI models. We find that LLMs exhibit explicit and implicit adultification bias against Black girls, assigning them harsher, more sexualized consequences in comparison to their White peers. Additionally, we find that T2I models depict Black girls as older and wearing more revealing clothing than their White counterparts, illustrating how adultification bias persists across modalities. We make three key contributions: (1) we measure a new form of bias in generative AI models, (2) we systematically study adultification bias across modalities, and (3) our findings emphasize that current alignment methods are insufficient for comprehensively addressing bias. Therefore, new alignment methods that address biases such as adultification are needed to ensure safe and equitable AI deployment.
- Abstract(参考訳): 教育、警察、ソーシャルメディアといった分野における生成AIモデルの急速な採用は、潜在的なバイアスや安全性の問題、特に人種や性別などの保護された属性、未成年者との対話において、重大な懸念を提起する。
AIシステムとの安全なインタラクションを促進する緊急性を考えると、私たちは若い女の子の人種やジェンダーの軸に沿ったバイアスを研究します。
より具体的に言えば、私たちは「文化バイアス」に焦点を当てており、黒人の女の子たちは白人の仲間よりも、よりデファイアントで、性的に親密で、教育可能であると推定される現象である。
アライメントテクニックの進歩は、バイアスを軽減するという約束を示しているが、そのカバレッジと効果はモデルやバイアスタイプによって異なる。
したがって、広く使われているLLMとテキスト・トゥ・イメージ(T2I)モデル、例えばOpenAI、Meta、Stable AIモデルにおいて、明示的で暗黙的なアダルト化バイアスを測定する。
LLMは黒人女性に対する明示的で暗黙的な性的暴行バイアスを示しており、白人と比較するとより厳格で性的な結果が与えられる。
さらに、T2Iモデルでは、黒人少女を白人女性よりも年上で、より明快な服を着ているのがわかります。
我々は,(1)生成型AIモデルにおける新しい形式のバイアスを測定すること,(2)モダリティ全体にわたるアダル化バイアスを体系的に研究すること,(3)現在のアライメント手法がバイアスに包括的に対処するには不十分であることを強調すること,の3つの重要な貢献を行う。
したがって、アダルト化のようなバイアスに対処する新しいアライメント手法は、安全で公平なAIデプロイメントを保証するために必要である。
関連論文リスト
- Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - Protected group bias and stereotypes in Large Language Models [2.1122940074160357]
本稿では,倫理と公正の領域におけるLarge Language Models(LLM)の振る舞いについて考察する。
マイノリティ化されたグループに偏見はありますが、特に性別やセクシュアリティの領域では、西洋の偏見も見られます。
論文 参考訳(メタデータ) (2024-03-21T00:21:38Z) - Bias in Generative AI [2.5830293457323266]
本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
論文 参考訳(メタデータ) (2024-03-05T07:34:41Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Stereotype and Skew: Quantifying Gender Bias in Pre-trained and
Fine-tuned Language Models [5.378664454650768]
本稿では,文脈言語モデルにおける性別バイアスの定量化と分析を行う,スキューとステレオタイプという2つの直感的な指標を提案する。
性別のステレオタイプは、アウト・オブ・ボックスモデルにおける性別の歪とほぼ負の相関関係にあり、これらの2種類のバイアスの間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-24T10:57:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。