論文の概要: Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2305.17072v1
- Date: Fri, 26 May 2023 16:28:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 13:25:59.290244
- Title: Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models
- Title(参考訳): ステレオタイプとsmut:(mis)テキストから画像へのモデルによる非cisgender identityの表現
- Authors: Eddie L. Ungless, Bj\"orn Ross and Anne Lauscher
- Abstract要約: マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
- 参考スコア(独自算出の注目度): 6.92043136971035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cutting-edge image generation has been praised for producing high-quality
images, suggesting a ubiquitous future in a variety of applications. However,
initial studies have pointed to the potential for harm due to predictive bias,
reflecting and potentially reinforcing cultural stereotypes. In this work, we
are the first to investigate how multimodal models handle diverse gender
identities. Concretely, we conduct a thorough analysis in which we compare the
output of three image generation models for prompts containing cisgender vs.
non-cisgender identity terms. Our findings demonstrate that certain
non-cisgender identities are consistently (mis)represented as less human, more
stereotyped and more sexualised. We complement our experimental analysis with
(a)~a survey among non-cisgender individuals and (b) a series of interviews, to
establish which harms affected individuals anticipate, and how they would like
to be represented. We find respondents are particularly concerned about
misrepresentation, and the potential to drive harmful behaviours and beliefs.
Simple heuristics to limit offensive content are widely rejected, and instead
respondents call for community involvement, curated training data and the
ability to customise. These improvements could pave the way for a future where
change is led by the affected community, and technology is used to positively
``[portray] queerness in ways that we haven't even thought of'' rather than
reproducing stale, offensive stereotypes.
- Abstract(参考訳): カットエッジ画像生成は高品質な画像を生成することで称賛され、様々なアプリケーションにおいてユビキタスな未来を示唆している。
しかしながら、初期の研究は、予測バイアス、反射、潜在的に文化的ステレオタイプによる害の可能性を示している。
本研究では,マルチモーダルモデルが性同一性をどのように扱うかについて検討する。
具体的には,シッゲンダーを含むプロンプトに対して3つの画像生成モデルの出力を非シッゲンダー識別項と比較する詳細な解析を行う。
以上の結果から,特定の非男性性同一性は,人間性,ステレオタイプ,セクシュアリゼーションの低下とともに,一貫して (mis) 呈示されることが示された。
我々は実験分析を補完する
(a)~非市民のアンケート及び調査
(b)影響を受けた個人がどのような被害を受けるか、どのように表現したいかを確立するための一連の面接。
回答者は特に、誤った表現や有害な行動や信念を促進する可能性を懸念している。
攻撃的なコンテンツを制限する単純なヒューリスティックは広く拒絶され、回答者はコミュニティの関与、トレーニングデータのキュレーション、カスタマイズの能力を求める。
これらの改善は、影響のあるコミュニティによって変化が導かれる未来への道を開く可能性があり、テクノロジーは、時代遅れで不快なステレオタイプを再現するよりもむしろ、私たちが考えもしなかった方法で、『[ポートレイ]クィアネス』を肯定的に評価するために使われるだろう。
関連論文リスト
- Challenging Negative Gender Stereotypes: A Study on the Effectiveness of Automated Counter-Stereotypes [12.704072523930444]
本研究では,オンラインコミュニケーションにおいて,ジェンダーのステレオタイプに自動的に対抗し,挑戦する11の戦略について検討する。
我々は、AIによるジェンダーベースのカウンターステレオタイプを参加者に提示し、攻撃性、妥当性、そして潜在的有効性を評価するよう依頼する。
論文 参考訳(メタデータ) (2024-04-18T01:48:28Z) - Revisiting The Classics: A Study on Identifying and Rectifying Gender Stereotypes in Rhymes and Poems [0.0]
この研究は、男女のステレオタイプを特定するために韻文と詩のデータセットを集め、性別バイアスを特定するために97%の精度のモデルを提案することで貢献する。
ジェンダーのステレオタイプをLarge Language Model (LLM) を用いて修正し、その効果を人間の教育者に対する比較調査で評価した。
論文 参考訳(メタデータ) (2024-03-18T13:02:02Z) - Non-discrimination Criteria for Generative Language Models [5.325297567945828]
本稿では、生成言語モデルにおけるジェンダーバイアスの存在を解明し、定量化する方法について研究する。
我々は、独立性、分離性、充足性という3つのよく知られた非識別基準のジェネレーティブAIアナログを導出する。
本研究は,このような対話型言語モデルにおける職業性バイアスの存在に対処するものである。
論文 参考訳(メタデータ) (2024-03-13T14:19:08Z) - The Male CEO and the Female Assistant: Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,T2Iモデルを二重オブジェクト生成設定で体系的に評価するPaired Stereotype Test (PST) フレームワークを提案する。
PSTは、二重オブジェクト生成タスク、すなわち、同じイメージで2人を生成するタスクである。
DALLE-3は、一見公平で反ステレオタイプな単体画像でも、PST下では顕著な偏見を示す。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。