論文の概要: Gender Artifacts in Visual Datasets
- arxiv url: http://arxiv.org/abs/2206.09191v3
- Date: Mon, 18 Sep 2023 02:25:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 01:52:08.999461
- Title: Gender Artifacts in Visual Datasets
- Title(参考訳): ビジュアルデータセットにおけるジェンダーアーティファクト
- Authors: Nicole Meister, Dora Zhao, Angelina Wang, Vikram V. Ramaswamy, Ruth
Fong, Olga Russakovsky
- Abstract要約: 大規模なビジュアルデータセット内には、$textitgender アーティファクト$が何であるかを調査する。
性別のアーティファクトは、COCOとOpenImagesのデータセットでユビキタスであることが分かりました。
このようなデータセットから性別のアーティファクトを取り除こうとする試みは、ほぼ不可能である、と我々は主張する。
- 参考スコア(独自算出の注目度): 34.74191865400569
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender biases are known to exist within large-scale visual datasets and can
be reflected or even amplified in downstream models. Many prior works have
proposed methods for mitigating gender biases, often by attempting to remove
gender expression information from images. To understand the feasibility and
practicality of these approaches, we investigate what $\textit{gender
artifacts}$ exist within large-scale visual datasets. We define a
$\textit{gender artifact}$ as a visual cue that is correlated with gender,
focusing specifically on those cues that are learnable by a modern image
classifier and have an interpretable human corollary. Through our analyses, we
find that gender artifacts are ubiquitous in the COCO and OpenImages datasets,
occurring everywhere from low-level information (e.g., the mean value of the
color channels) to the higher-level composition of the image (e.g., pose and
location of people). Given the prevalence of gender artifacts, we claim that
attempts to remove gender artifacts from such datasets are largely infeasible.
Instead, the responsibility lies with researchers and practitioners to be aware
that the distribution of images within datasets is highly gendered and hence
develop methods which are robust to these distributional shifts across groups.
- Abstract(参考訳): ジェンダーバイアスは大規模なビジュアルデータセットに存在することが知られており、下流モデルで反映または増幅することもできる。
多くの先行研究は、画像から性別表現情報を取り除こうとして、性別バイアスを緩和する方法を提案している。
これらのアプローチの実現可能性と実用性を理解するため、大規模なビジュアルデータセットに$\textit{gender artifacts}$が存在するかを調べる。
そこで本稿では,現代画像分類器で学習可能で,解釈可能なヒューマン・コロナリーを持つような,ジェンダーと相関する視覚的キューとして,$\textit{gender artifact}$を定義した。
分析の結果、性別のアーティファクトはCOCOデータセットやOpenImagesデータセットの中でユビキタスであり、低レベル情報(例えば、カラーチャネルの平均値)から高レベル画像(例えば、ポーズや人物の位置)まで至るところで発生することがわかった。
性別アーチファクトの普及を考えると、このようなデータセットから性別アーチファクトを取り除く試みは、ほとんど不可能であると主張する。
その代わり、研究者や実践者はデータセット内の画像の分布が高度に性的なものであることに気付き、グループ間の分散シフトに堅牢な方法を開発する責任を負う。
関連論文リスト
- The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [105.54048699217668]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
我々は、ウィノグラードとウィノゲンダーのスキーマにインスパイアされた職業関連性バイアスに焦点を当てる。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、複雑な場面でジェンダーを正しく解決する推論能力が欠如していることを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Balancing the Picture: Debiasing Vision-Language Datasets with Synthetic
Contrast Sets [52.77024349608834]
視覚言語モデルは、インターネットから未計算の画像テキストペアの事前トレーニング中に学んだ社会的バイアスを永続し、増幅することができる。
COCO Captionsは、背景コンテキストとその場にいる人々の性別間のバイアスを評価するために最も一般的に使用されるデータセットである。
本研究では,COCOデータセットを男女バランスの取れたコントラストセットで拡張する新しいデータセットデバイアスパイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-24T17:59:18Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search [8.730027941735804]
我々は、画像検索において、独特なジェンダーバイアスを研究する。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
我々は2つの新しいデバイアスのアプローチを導入する。
論文 参考訳(メタデータ) (2021-09-12T04:47:33Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。