論文の概要: Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search
- arxiv url: http://arxiv.org/abs/2109.05433v1
- Date: Sun, 12 Sep 2021 04:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 06:08:51.221181
- Title: Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search
- Title(参考訳): 性中立クエリは本当に性中立なのか?
画像検索におけるジェンダーバイアスの軽減
- Authors: Jialu Wang and Yang Liu and Xin Eric Wang
- Abstract要約: 我々は、画像検索において、独特なジェンダーバイアスを研究する。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
我々は2つの新しいデバイアスのアプローチを導入する。
- 参考スコア(独自算出の注目度): 8.730027941735804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Internet search affects people's cognition of the world, so mitigating biases
in search results and learning fair models is imperative for social good. We
study a unique gender bias in image search in this work: the search images are
often gender-imbalanced for gender-neutral natural language queries. We
diagnose two typical image search models, the specialized model trained on
in-domain datasets and the generalized representation model pre-trained on
massive image and text data across the internet. Both models suffer from severe
gender bias. Therefore, we introduce two novel debiasing approaches: an
in-processing fair sampling method to address the gender imbalance issue for
training models, and a post-processing feature clipping method base on mutual
information to debias multimodal representations of pre-trained models.
Extensive experiments on MS-COCO and Flickr30K benchmarks show that our methods
significantly reduce the gender bias in image search models.
- Abstract(参考訳): インターネット検索は人々の世界の認知に影響を与えるため、検索結果のバイアスを緩和し、公正なモデルを学ぶことは社会的利益にとって不可欠である。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
2つの典型的な画像検索モデル、ドメイン内データセットでトレーニングされた専用モデル、およびインターネット上の大規模画像およびテキストデータで事前トレーニングされた一般化表現モデルとを診断する。
どちらのモデルも厳しい性別の偏見に苦しむ。
そこで本研究では,トレーニングモデルの男女不均衡問題に対処するインプロセッシング・フェアサンプリング法と,事前学習モデルのマルチモーダル表現をデバイアスする相互情報に基づくポストプロセッシング機能クリッピング法という2つの新しいデバイアス手法を提案する。
MS-COCO と Flickr30K ベンチマークの大規模な実験により,画像検索モデルにおける性別バイアスを大幅に低減した。
関連論文リスト
- The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - Exploring Gender Bias in Retrieval Models [2.594412743115663]
情報検索におけるジェンダーバイアスの緩和は,ステレオタイプの普及を避けるために重要である。
本研究では,(1)クエリに対するドキュメントの関連性,(2)ドキュメントの“ジェンダー”という2つのコンポーネントからなるデータセットを用いる。
我々は,大容量のBERTエンコーダの完全微調整を行う場合,IRの事前学習モデルはゼロショット検索タスクではうまく動作しないことを示す。
また、事前学習されたモデルには性別バイアスがあり、検索された記事は女性よりも男性が多い傾向にあることを示した。
論文 参考訳(メタデータ) (2022-08-02T21:12:05Z) - On the Basis of Sex: A Review of Gender Bias in Machine Learning
Applications [0.0]
まず、機械学習のジェンダーバイアスの実践例をいくつか紹介する。
次に、機械学習モデルをより公平にする方法に対処するために、最も広く使われているフェアネスの形式化を詳述する。
論文 参考訳(メタデータ) (2021-04-06T14:11:16Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。