論文の概要: Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and
Prompt Engineering May Not Help You
- arxiv url: http://arxiv.org/abs/2401.16092v2
- Date: Wed, 31 Jan 2024 08:33:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 11:21:43.606270
- Title: Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and
Prompt Engineering May Not Help You
- Title(参考訳): ジェンダーステレオタイプを拡大する多言語テキスト・画像生成技術
- Authors: Felix Friedrich, Katharina H\"ammerl, Patrick Schramowski, Jindrich
Libovicky, Kristian Kersting, Alexander Fraser
- Abstract要約: 多言語モデルは単言語モデルと同様の(性的な)バイアスに悩まされていることを示す。
ジェンダーバイアスのない多言語モデルの研究を促進するための新しいベンチマークMAGBIGを提案する。
- 参考スコア(独自算出の注目度): 68.50889475919251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generation models have recently achieved astonishing results in
image quality, flexibility, and text alignment and are consequently employed in
a fast-growing number of applications. Through improvements in multilingual
abilities, a larger community now has access to this kind of technology. Yet,
as we will show, multilingual models suffer similarly from (gender) biases as
monolingual models. Furthermore, the natural expectation is that these models
will provide similar results across languages, but this is not the case and
there are important differences between languages. Thus, we propose a novel
benchmark MAGBIG intending to foster research in multilingual models without
gender bias. We investigate whether multilingual T2I models magnify gender bias
with MAGBIG. To this end, we use multilingual prompts requesting portrait
images of persons of a certain occupation or trait (using adjectives). Our
results show not only that models deviate from the normative assumption that
each gender should be equally likely to be generated, but that there are also
big differences across languages. Furthermore, we investigate prompt
engineering strategies, i.e. the use of indirect, neutral formulations, as a
possible remedy for these biases. Unfortunately, they help only to a limited
extent and result in worse text-to-image alignment. Consequently, this work
calls for more research into diverse representations across languages in image
generators.
- Abstract(参考訳): テキスト対画像生成モデルは最近、画像品質、柔軟性、テキストアライメントに驚くべき結果をもたらしており、その結果、急成長中のアプリケーションで採用されている。
多言語能力の向上により、より大きなコミュニティはこの種の技術にアクセスできるようになった。
しかし、ここで示すように、多言語モデルは単言語モデルと同様に(性)バイアスに悩まされる。
さらに、これらのモデルが言語間で同様の結果をもたらすという自然な期待もあるが、これはそうではなく、言語間で重要な違いがある。
そこで本稿では,ジェンダーバイアスのない多言語モデルの研究を促進するためのベンチマークMAGBIGを提案する。
多言語T2IモデルがMAGBIGと性別バイアスを増大させるかどうかを検討する。
この目的のために、我々は、ある職業または特性(形容詞を用いて)の人物の肖像画像をリクエストする多言語プロンプトを用いる。
我々の結果は、各性別が等しく生成されるべきという規範的な仮定から逸脱するだけでなく、言語間で大きな違いがあることを示している。
さらに,これらのバイアスに対する対策として,間接的,中立的な定式化を用いた迅速なエンジニアリング戦略について検討する。
残念ながら、それらは限られた範囲でしか役に立たず、テキストから画像へのアライメントが悪くなります。
その結果、この研究は画像生成装置における言語間の多様な表現に関するさらなる研究を要求する。
関連論文リスト
- UnMASKed: Quantifying Gender Biases in Masked Language Models through
Linguistically Informed Job Market Prompts [0.0]
この研究は、マスキング言語モデル(MLM)に存在する固有のバイアスを掘り下げる。
本研究では, BERT, RoBERTa, DistilBERT, BERT-multilingual, XLM-RoBERTa, DistilBERT-multilingualの6つのモデルについて検討した。
この分析により、すべてのモデルのステレオタイプ的な性別アライメントが明らかとなり、多言語変異は相対的にバイアスを減少させる。
論文 参考訳(メタデータ) (2024-01-28T23:00:40Z) - Large Multilingual Models Pivot Zero-Shot Multimodal Learning across
Languages [77.81064876413055]
MPMは、英語以外の言語で大規模なマルチモーダルモデルを訓練するための効果的な訓練パラダイムである。
画像・テキスト・テキスト・画像生成における大規模なマルチモーダルモデルVisCPMを構築し,中国語の最先端(オープンソース)性能を実現する。
論文 参考訳(メタデータ) (2023-08-23T09:55:41Z) - Multilingual Conceptual Coverage in Text-to-Image Models [98.80343331645626]
コンセプチュアル・カバー・アクロス言語(Conceptual Coverage Across Languages, CoCo-CroLa)とは、任意の生成的テキスト・画像システムにおいて、有形名詞の観点から学習言語に多言語対応を提供する程度をベンチマークする手法である。
各モデルについて、ソースコード中の一連の有形名詞に生成される画像の集団と、対象言語に翻訳された各名詞に生成された画像の集団とを比較することにより、ソース言語に対して与えられた対象言語の「概念的カバレッジ」を評価することができる。
論文 参考訳(メタデータ) (2023-06-02T17:59:09Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Text to Image Generation: Leaving no Language Behind [6.243995448840211]
本稿では,3つの人気テキスト・画像生成装置の性能が言語にどのように依存するかを検討する。
その結果,英語以外の言語を使用する場合,性能が著しく低下することが示唆された。
これは、この新技術が母国語以外の英語話者によって利用できることを保証するための基本である。
論文 参考訳(メタデータ) (2022-08-19T13:24:56Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Investigating Cross-Linguistic Gender Bias in Hindi-English Across
Domains [0.0]
我々はこのバイアスをヒンディー語で測定し研究することを目指しており、これは低階言語である英語に言及した高階言語である。
これを達成するために、ドメイン間のバリエーションを調査し、ドメイン埋め込みが、この2つのヒンディー語モデルに対するジェンダーバイアスについての洞察を得られるかどうかを定量化する。
論文 参考訳(メタデータ) (2021-11-22T12:55:36Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。