論文の概要: Neutral Prompts, Non-Neutral People: Quantifying Gender and Skin-Tone Bias in Gemini Flash 2.5 Image and GPT Image 1.5
- arxiv url: http://arxiv.org/abs/2602.12133v1
- Date: Thu, 12 Feb 2026 16:21:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.925027
- Title: Neutral Prompts, Non-Neutral People: Quantifying Gender and Skin-Tone Bias in Gemini Flash 2.5 Image and GPT Image 1.5
- Title(参考訳): Gemini Flash 2.5 Image and GPT Image 1.5(動画)
- Authors: Roberto Balestri,
- Abstract要約: 本研究では,広範に展開されている2つの商用画像生成装置において,性別と肌音のバイアスを定量化する。
意味的に中立な4つのプロンプトを用いて3,200個の画像を生成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study quantifies gender and skin-tone bias in two widely deployed commercial image generators - Gemini Flash 2.5 Image (NanoBanana) and GPT Image 1.5 - to test the assumption that neutral prompts yield demographically neutral outputs. We generated 3,200 photorealistic images using four semantically neutral prompts. The analysis employed a rigorous pipeline combining hybrid color normalization, facial landmark masking, and perceptually uniform skin tone quantification using the Monk (MST), PERLA, and Fitzpatrick scales. Neutral prompts produced highly polarized defaults. Both models exhibited a strong "default white" bias (>96% of outputs). However, they diverged sharply on gender: Gemini favored female-presenting subjects, while GPT favored male-presenting subjects with lighter skin tones. This research provides a large-scale, comparative audit of state-of-the-art models using an illumination-aware colorimetric methodology, distinguishing aesthetic rendering from underlying pigmentation in synthetic imagery. The study demonstrates that neutral prompts function as diagnostic probes rather than neutral instructions. It offers a robust framework for auditing algorithmic visual culture and challenges the sociolinguistic assumption that unmarked language results in inclusive representation.
- Abstract(参考訳): 本研究は,Gmini Flash 2.5 Image (NanoBanana) と GPT Image 1.5 の2つの商用画像生成装置において,中性刺激が人口統計学的に中性出力をもたらすという仮定を検証するために,性別と肌色バイアスを定量化する。
我々は4つの意味的に中立なプロンプトを用いて3,200個のフォトリアリスティック画像を生成した。
この分析は、ハイブリッドカラー正規化、顔のランドマークマスク、およびMonk(MST)、PERLA、Fitzpatrickスケールを用いた知覚的に均一な皮膚のトーン定量化を組み合わせた厳密なパイプラインを用いた。
中立なプロンプトは高度に偏極化されたデフォルトを生み出した。
どちらのモデルも強い「デフォルト・ホワイト」バイアス(出力の96%)を示した。
ジェミニは女性代表の被験者を好んだが、GPTは男性代表の肌色が軽い被験者を好んだ。
本研究は,合成画像中の色素沈着の美的レンダリングを区別し,照明を意識した色度測定法を用いて,最先端技術モデルの比較を大規模に実施する。
この研究は、中性刺激は中性指示よりも診断プローブとして機能することを示した。
アルゴリズム的な視覚文化を監査するための堅牢なフレームワークを提供し、無意味な言語が包括的表現をもたらすという社会言語学的な仮定に挑戦する。
関連論文リスト
- Prompting Away Stereotypes? Evaluating Bias in Text-to-Image Models for Occupations [9.58968557546246]
我々は、イメージキュレーションと評価タスクとして、表現的社会的バイアス評価の枠組みを定めている。
5つの最先端モデルを用いて、中立なベースラインプロンプトと公正な制御プロンプトを比較する。
その結果、プロンプトは人口統計学的表現を著しく変化させるが、モデル固有の効果は高い。
論文 参考訳(メタデータ) (2025-08-31T13:46:16Z) - When Cars Have Stereotypes: Auditing Demographic Bias in Objects from Text-to-Image Models [5.296342328363433]
このようなバイアスを測定するための新しいフレームワークであるSODA(Stereotyped Object Diagnostic Audit)を紹介する。
提案手法は, 対象物の視覚特性を人口統計学的手がかりと中性プロンプトとを比較した。
性別や民族によって引き起こされる色パターンの反復など、特定の人口集団と視覚特性の強い関連を明らかにする。
論文 参考訳(メタデータ) (2025-08-05T14:15:53Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Balancing the Picture: Debiasing Vision-Language Datasets with Synthetic
Contrast Sets [52.77024349608834]
視覚言語モデルは、インターネットから未計算の画像テキストペアの事前トレーニング中に学んだ社会的バイアスを永続し、増幅することができる。
COCO Captionsは、背景コンテキストとその場にいる人々の性別間のバイアスを評価するために最も一般的に使用されるデータセットである。
本研究では,COCOデータセットを男女バランスの取れたコントラストセットで拡張する新しいデータセットデバイアスパイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-24T17:59:18Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - PalGAN: Image Colorization with Palette Generative Adversarial Networks [51.59276436217957]
そこで本研究では,パレット推定とカラーアテンションを統合した新しいGANベースのカラー化手法PalGANを提案する。
PalGANは、定量的評価と視覚比較において最先端の成果を上げ、顕著な多様性、コントラスト、およびエッジ保存の外観を提供する。
論文 参考訳(メタデータ) (2022-10-20T12:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。