論文の概要: Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and
Prompt Engineering May Not Help You
- arxiv url: http://arxiv.org/abs/2401.16092v1
- Date: Mon, 29 Jan 2024 12:02:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:03:46.085308
- Title: Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and
Prompt Engineering May Not Help You
- Title(参考訳): ジェンダーステレオタイプを拡大する多言語テキスト・画像生成技術
- Authors: Felix Friedrich, Katharina H\"ammerl, Patrick Schramowski, Jindrich
Libovicky, Kristian Kersting, Alexander Fraser
- Abstract要約: 多言語モデルは単言語モデルと同様の(性的な)バイアスに悩まされていることを示す。
ジェンダーバイアスのない多言語モデルの研究を促進するための新しいベンチマークMAGBIGを提案する。
- 参考スコア(独自算出の注目度): 68.50889475919251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generation models have recently achieved astonishing results in
image quality, flexibility, and text alignment and are consequently employed in
a fast-growing number of applications. Through improvements in multilingual
abilities, a larger community now has access to this kind of technology. Yet,
as we will show, multilingual models suffer similarly from (gender) biases as
monolingual models. Furthermore, the natural expectation is that these models
will provide similar results across languages, but this is not the case and
there are important differences between languages. Thus, we propose a novel
benchmark MAGBIG intending to foster research in multilingual models without
gender bias. We investigate whether multilingual T2I models magnify gender bias
with MAGBIG. To this end, we use multilingual prompts requesting portrait
images of persons of a certain occupation or trait (using adjectives). Our
results show not only that models deviate from the normative assumption that
each gender should be equally likely to be generated, but that there are also
big differences across languages. Furthermore, we investigate prompt
engineering strategies, i.e. the use of indirect, neutral formulations, as a
possible remedy for these biases. Unfortunately, they help only to a limited
extent and result in worse text-to-image alignment. Consequently, this work
calls for more research into diverse representations across languages in image
generators.
- Abstract(参考訳): テキスト対画像生成モデルは最近、画像品質、柔軟性、テキストアライメントに驚くべき結果をもたらしており、その結果、急成長中のアプリケーションで採用されている。
多言語能力の向上により、より大きなコミュニティはこの種の技術にアクセスできるようになった。
しかし、ここで示すように、多言語モデルは単言語モデルと同様に(性)バイアスに悩まされる。
さらに、これらのモデルが言語間で同様の結果をもたらすという自然な期待もあるが、これはそうではなく、言語間で重要な違いがある。
そこで本稿では,ジェンダーバイアスのない多言語モデルの研究を促進するためのベンチマークMAGBIGを提案する。
多言語T2IモデルがMAGBIGと性別バイアスを増大させるかどうかを検討する。
この目的のために、我々は、ある職業または特性(形容詞を用いて)の人物の肖像画像をリクエストする多言語プロンプトを用いる。
我々の結果は、各性別が等しく生成されるべきという規範的な仮定から逸脱するだけでなく、言語間で大きな違いがあることを示している。
さらに,これらのバイアスに対する対策として,間接的,中立的な定式化を用いた迅速なエンジニアリング戦略について検討する。
残念ながら、それらは限られた範囲でしか役に立たず、テキストから画像へのアライメントが悪くなります。
その結果、この研究は画像生成装置における言語間の多様な表現に関するさらなる研究を要求する。
関連論文リスト
- What is Your Favorite Gender, MLM? Gender Bias Evaluation in Multilingual Masked Language Models [8.618945530676614]
本稿では,中国語,英語,ドイツ語,ポルトガル語,スペイン語の5言語から,多言語辞書の性別バイアスを推定する手法を提案する。
ジェンダーバイアスのより堅牢な分析のための文対を生成するために,新しいモデルに基づく手法を提案する。
以上の結果から,複数の評価指標をベストプラクティスとして用いた大規模データセットでは,性別バイアスを研究すべきであることが示唆された。
論文 参考訳(メタデータ) (2024-04-09T21:12:08Z) - Twists, Humps, and Pebbles: Multilingual Speech Recognition Models Exhibit Gender Performance Gaps [25.95711246919163]
現在の自動音声認識(ASR)モデルは、多くの言語やタスクでかなりの変更を加えることなく使用できるように設計されている。
本研究では,3つのデータセット上で広く使用されている2つの多言語ASRモデルの性能を体系的に評価する。
以上の結果から,言語やモデルによって異なる傾向がみられた。
論文 参考訳(メタデータ) (2024-02-28T00:24:29Z) - UnMASKed: Quantifying Gender Biases in Masked Language Models through
Linguistically Informed Job Market Prompts [0.0]
この研究は、マスキング言語モデル(MLM)に存在する固有のバイアスを掘り下げる。
本研究では, BERT, RoBERTa, DistilBERT, BERT-multilingual, XLM-RoBERTa, DistilBERT-multilingualの6つのモデルについて検討した。
この分析により、すべてのモデルのステレオタイプ的な性別アライメントが明らかとなり、多言語変異は相対的にバイアスを減少させる。
論文 参考訳(メタデータ) (2024-01-28T23:00:40Z) - Large Multilingual Models Pivot Zero-Shot Multimodal Learning across Languages [76.35234803589412]
MPMは、英語以外の言語で大規模なマルチモーダルモデルを訓練するための効果的な訓練パラダイムである。
画像・テキスト・テキスト・画像生成における大規模なマルチモーダルモデルVisCPMを構築し,中国語の最先端(オープンソース)性能を実現する。
論文 参考訳(メタデータ) (2023-08-23T09:55:41Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - Are Pretrained Multilingual Models Equally Fair Across Languages? [0.0]
この研究は多言語モデルの群フェアネスを調査し、これらのモデルが言語間で等しく公平かどうかを問う。
我々は、MozArt上の3つの多言語モデル(mBERT、XLM-R、mT5)を評価し、これらのモデルが4つの対象言語で異なるグループ格差を示すことを示す。
論文 参考訳(メタデータ) (2022-10-11T13:59:19Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。