論文の概要: Beyond Content: How Grammatical Gender Shapes Visual Representation in Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2508.03199v2
- Date: Sun, 10 Aug 2025 14:30:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 13:12:52.259367
- Title: Beyond Content: How Grammatical Gender Shapes Visual Representation in Text-to-Image Models
- Title(参考訳): コンテンツを超えて: テキスト・画像モデルにおける文法的ジェンダーの視覚表現の形状
- Authors: Muhammed Saeed, Shaina Raza, Ashmal Vayani, Muhammad Abdul-Mageed, Ali Emami, Shady Shehata,
- Abstract要約: 文法的性別がステレオタイプ性関連に矛盾する単語を比較検討する言語間ベンチマークを導入する。
我々のデータセットは5つのジェンダー言語(フランス語、スペイン語、ドイツ語、イタリア語、ロシア語)と2つのジェンダーニュートラル制御言語(英語、中国語)にまたがっている。
男性文法マーカーは平均で男性表現を73%(性中立英語と比較して22%)、女性文法マーカーは女性表現を38%(英語では28%)に増やす
- 参考スコア(独自算出の注目度): 19.778402765447545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research on bias in Text-to-Image (T2I) models has primarily focused on demographic representation and stereotypical attributes, overlooking a fundamental question: how does grammatical gender influence visual representation across languages? We introduce a cross-linguistic benchmark examining words where grammatical gender contradicts stereotypical gender associations (e.g., ``une sentinelle'' - grammatically feminine in French but referring to the stereotypically masculine concept ``guard''). Our dataset spans five gendered languages (French, Spanish, German, Italian, Russian) and two gender-neutral control languages (English, Chinese), comprising 800 unique prompts that generated 28,800 images across three state-of-the-art T2I models. Our analysis reveals that grammatical gender dramatically influences image generation: masculine grammatical markers increase male representation to 73\% on average (compared to 22\% with gender-neutral English), while feminine grammatical markers increase female representation to 38\% (compared to 28\% in English). These effects vary systematically by language resource availability and model architecture, with high-resource languages showing stronger effects. Our findings establish that language structure itself, not just content, shapes AI-generated visual outputs, introducing a new dimension for understanding bias and fairness in multilingual, multimodal systems.
- Abstract(参考訳): テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスの研究は、主に人口統計学的表現とステレオタイプ的属性に焦点を当てており、基本的な問題を見越す: 文法的性別は言語間の視覚的表現にどのように影響するか?
文法的性別がステレオタイプ性関連に矛盾する単語(eg , ``une sentinelle'' – 文法的に女性であるが、ステレオタイプ的に男性的な概念 ‘`guard'' を参照)を調べるクロス言語的ベンチマークを導入する。
我々のデータセットは5つのジェンダー言語(フランス語、スペイン語、ドイツ語、イタリア語、ロシア語)と2つのジェンダーニュートラル制御言語(英語、中国語)にまたがる。
男性文法マーカーは男性表現を平均で73 %、女性文法マーカーは女性表現を38 %(英語では28 %)に増加させる。
これらの効果は、言語リソースの可用性とモデルアーキテクチャによって体系的に異なる。
我々の発見は、言語構造自体がコンテンツだけではなく、AI生成した視覚的出力を形作り、多言語・マルチモーダルシステムにおけるバイアスと公平性を理解するための新しい次元を導入することを証明している。
関連論文リスト
- EuroGEST: Investigating gender stereotypes in multilingual language models [53.88459905621724]
大規模言語モデルはますます複数の言語をサポートするようになったが、ほとんどのベンチマークは英語中心のままである。
EuroGESTは、英語と29のヨーロッパ言語にまたがるLLMにおける性別ステレオタイプ推論を計測するためのデータセットである。
論文 参考訳(メタデータ) (2025-06-04T11:58:18Z) - mGeNTE: A Multilingual Resource for Gender-Neutral Language and Translation [21.461095625903504]
mGeNTEは、英語/イタリア語/ドイツ語/スペイン語のペアのデータセットである。
ジェンダー・ニュートラル翻訳(GNT)と3つの文法性言語のための言語モデリングの両方の研究を可能にする。
論文 参考訳(メタデータ) (2025-01-16T09:35:15Z) - What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - Investigating grammatical abstraction in language models using few-shot learning of novel noun gender [0.0]
我々は,LSTMとデコーダのみのトランスフォーマーが,フランス語の文法的ジェンダーを人間のように抽象化できるかどうかを評価するために名詞学習実験を行った。
両言語モデルが一対二の学習例から新約名詞のジェンダーを効果的に一般化し,合意文脈にまたがって学習したジェンダーを適用した。
モデルの一般化行動は、それらが人間のように文法的な性別を抽象的なカテゴリーとして表現していることを示しているが、詳細を探求するにはさらなる作業が必要である。
論文 参考訳(メタデータ) (2024-03-15T14:25:59Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Don't Forget About Pronouns: Removing Gender Bias in Language Models
Without Losing Factual Gender Information [4.391102490444539]
英語のテキストでは、ジェンダー情報とジェンダーバイアスの2つのタイプに焦点を当てている。
ジェンダーシグナルを保存しながら表現のステレオタイプバイアスを小さくすることを目的としている。
論文 参考訳(メタデータ) (2022-06-21T21:38:25Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。