論文の概要: Women Wearing Lipstick: Measuring the Bias Between an Object and Its
Related Gender
- arxiv url: http://arxiv.org/abs/2310.19130v1
- Date: Sun, 29 Oct 2023 19:39:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 14:11:44.866438
- Title: Women Wearing Lipstick: Measuring the Bias Between an Object and Its
Related Gender
- Title(参考訳): 口紅を着る女性:物体と関連するジェンダーの間のバイアスを測定する
- Authors: Ahmed Sabir, Llu\'is Padr\'o
- Abstract要約: 画像キャプションシステムにおける対象物が性差に与える影響について検討する。
本稿では, 画像キャプションシステムのプラグインとして使用できる, 偏見の度合いを計測する視覚的意味に基づく性別スコアを提案する。
- 参考スコア(独自算出の注目度): 1.4322753787990035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate the impact of objects on gender bias in image
captioning systems. Our results show that only gender-specific objects have a
strong gender bias (e.g., women-lipstick). In addition, we propose a visual
semantic-based gender score that measures the degree of bias and can be used as
a plug-in for any image captioning system. Our experiments demonstrate the
utility of the gender score, since we observe that our score can measure the
bias relation between a caption and its related gender; therefore, our score
can be used as an additional metric to the existing Object Gender Co-Occ
approach. Code and data are publicly available at
\url{https://github.com/ahmedssabir/GenderScore}.
- Abstract(参考訳): 本稿では,画像キャプションシステムにおける性別バイアスに対する対象の影響について検討する。
以上の結果から,性別に限定した対象のみが強い性別バイアス(女性-リップスティックなど)を持つことが示された。
さらに, 画像キャプションシステムにおいて, バイアスの度合いを計測し, プラグインとして使用できる視覚的意味に基づく性別スコアを提案する。
そこで本実験では,字幕とその関連性間のバイアス関係を計測できるため,既存のObject Gender Co-Occアプローチの付加指標として有効であることを示す。
コードとデータは \url{https://github.com/ahmedssabir/GenderScore} で公開されている。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - DiFair: A Benchmark for Disentangled Assessment of Gender Knowledge and
Bias [13.928591341824248]
事前訓練された言語モデルでよく見られる性別バイアスを軽減するために、デバイアス技術が提案されている。
これらはしばしば、予測においてモデルが性中立である範囲をチェックするデータセットで評価される。
この評価プロトコルは、バイアス緩和が有意義なジェンダー知識に悪影響を及ぼす可能性を見落としている。
論文 参考訳(メタデータ) (2023-10-22T15:27:16Z) - Analysing Gender Bias in Text-to-Image Models using Object Detection [0.0]
性別を特定し、曖昧にオブジェクトを参照するペアプロンプトを使用することで、特定のオブジェクトが特定の性別と関連付けられているかどうかを調べることができる。
男性はネクタイ、ナイフ、トラック、野球のバット、自転車などの生成物をより頻繁に促す。
女性のプロンプトは、ハンドバッグ、傘、ボウル、ボトル、カップなどのオブジェクトを生成する傾向があった。
論文 参考訳(メタデータ) (2023-07-16T12:31:29Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Much Ado About Gender: Current Practices and Future Recommendations for
Appropriate Gender-Aware Information Access [3.3903891679981593]
情報アクセス研究(と開発)は時にジェンダーを利用する。
この研究は、ジェンダーが何であるかの現在の理解と一致していないジェンダーについて様々な仮定を下している。
私たちがレビューするほとんどの論文は、性別が2つのカテゴリに分けることができないことを認めたとしても、性別のバイナリな概念に依存しています。
論文 参考訳(メタデータ) (2023-01-12T01:21:02Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。