論文の概要: Analysing Gender Bias in Text-to-Image Models using Object Detection
- arxiv url: http://arxiv.org/abs/2307.08025v1
- Date: Sun, 16 Jul 2023 12:31:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 16:13:34.021436
- Title: Analysing Gender Bias in Text-to-Image Models using Object Detection
- Title(参考訳): 物体検出を用いたテキスト・画像モデルにおけるジェンダーバイアスの解析
- Authors: Harvey Mannering
- Abstract要約: 性別を特定し、曖昧にオブジェクトを参照するペアプロンプトを使用することで、特定のオブジェクトが特定の性別と関連付けられているかどうかを調べることができる。
男性はネクタイ、ナイフ、トラック、野球のバット、自転車などの生成物をより頻繁に促す。
女性のプロンプトは、ハンドバッグ、傘、ボウル、ボトル、カップなどのオブジェクトを生成する傾向があった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This work presents a novel strategy to measure bias in text-to-image models.
Using paired prompts that specify gender and vaguely reference an object (e.g.
"a man/woman holding an item") we can examine whether certain objects are
associated with a certain gender. In analysing results from Stable Diffusion,
we observed that male prompts generated objects such as ties, knives, trucks,
baseball bats, and bicycles more frequently. On the other hand, female prompts
were more likely to generate objects such as handbags, umbrellas, bowls,
bottles, and cups. We hope that the method outlined here will be a useful tool
for examining bias in text-to-image models.
- Abstract(参考訳): 本研究は,テキストから画像へのバイアスを測定する新しい手法を提案する。
性別を特定し、オブジェクトを曖昧に参照するペアプロンプト(例:「アイテムを持っている男性/女性」)を使用することで、特定のオブジェクトが特定の性別に関連付けられているかどうかを検証できる。
安定拡散の結果を解析した結果, 男性のプロンプトはタイ, ナイフ, トラック, 野球のバット, 自転車などの物体をより頻繁に発生することがわかった。
一方,女性のプロンプトは,ハンドバッグや傘,ボウル,ボトル,カップなどのオブジェクトを生成する傾向が高かった。
ここで概説する手法は、テキストから画像へのモデルのバイアスを調べるのに有用なツールになることを願っている。
関連論文リスト
- Computational Analysis of Gender Depiction in the Comedias of Calderón de la Barca [6.978406757882009]
我々は、ペドロ・カルデーン・デ・ラ・バルカ(Pedro Calder'on de la Barca)の非宗教作品(メディア)におけるジェンダー描写を研究する方法を開発した。
ジェンダー分類器を用いて100以上の戯曲のコーパスからインサイトを収集し,モデル説明可能性(属性)手法を適用した。
性別予測モデルでは, 女性と男性との特徴が異なり, 実際に有効な精度で識別できることがわかった。
論文 参考訳(メタデータ) (2024-11-06T13:13:33Z) - Reflecting the Male Gaze: Quantifying Female Objectification in 19th and 20th Century Novels [3.0623865942628594]
本稿では,性別の偏見を女性客観化の観点から分析する枠組みを提案する。
我々の枠組みは2つの軸に沿って女性の客観性を測定する。
私たちの枠組みを19世紀と20世紀の小説に適用すると、女性の客観化の証拠が明らかになる。
論文 参考訳(メタデータ) (2024-03-25T20:16:14Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Women Wearing Lipstick: Measuring the Bias Between an Object and Its
Related Gender [1.4322753787990035]
画像キャプションシステムにおける対象物が性差に与える影響について検討する。
本稿では, 画像キャプションシステムのプラグインとして使用できる, 偏見の度合いを計測する視覚的意味に基づく性別スコアを提案する。
論文 参考訳(メタデータ) (2023-10-29T19:39:03Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Gender Artifacts in Visual Datasets [34.74191865400569]
大規模なビジュアルデータセット内には、$textitgender アーティファクト$が何であるかを調査する。
性別のアーティファクトは、COCOとOpenImagesのデータセットでユビキタスであることが分かりました。
このようなデータセットから性別のアーティファクトを取り除こうとする試みは、ほぼ不可能である、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-18T12:09:19Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。