論文の概要: Gender Bias in Multimodal Models: A Transnational Feminist Approach
Considering Geographical Region and Culture
- arxiv url: http://arxiv.org/abs/2309.04997v1
- Date: Sun, 10 Sep 2023 11:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 15:07:40.993109
- Title: Gender Bias in Multimodal Models: A Transnational Feminist Approach
Considering Geographical Region and Culture
- Title(参考訳): マルチモーダルモデルにおけるジェンダーバイアス:地理的地域と文化を考慮したトランスナショナルフェミニストアプローチ
- Authors: Abhishek Mandal, Suzanne Little and Susan Leavy
- Abstract要約: 本稿では、トランスナショナルフェミニズムの概念を取り入れたジェンダーを考慮したマルチモーダルモデルの監査手法を提案する。
男女差の有意な証拠は, 地域によって異なる。
有害なステレオタイプ・アソシエーションは、視覚的な文化的手がかりやテロリズムのようなラベルに関連していることも判明した。
- 参考スコア(独自算出の注目度): 3.101600812051321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning based visual-linguistic multimodal models such as Contrastive
Language Image Pre-training (CLIP) have become increasingly popular recently
and are used within text-to-image generative models such as DALL-E and Stable
Diffusion. However, gender and other social biases have been uncovered in these
models, and this has the potential to be amplified and perpetuated through AI
systems. In this paper, we present a methodology for auditing multimodal models
that consider gender, informed by concepts from transnational feminism,
including regional and cultural dimensions. Focusing on CLIP, we found evidence
of significant gender bias with varying patterns across global regions. Harmful
stereotypical associations were also uncovered related to visual cultural cues
and labels such as terrorism. Levels of gender bias uncovered within CLIP for
different regions aligned with global indices of societal gender equality, with
those from the Global South reflecting the highest levels of gender bias.
- Abstract(参考訳): Contrastive Language Image Pre-Training (CLIP) のような深層学習に基づく視覚言語型マルチモーダルモデルが最近普及し、DALL-EやStable Diffusionといったテキストから画像への生成モデルで使用されている。
しかし、性別やその他の社会的バイアスがこれらのモデルで発見されており、これはAIシステムを通じて増幅され、永続される可能性がある。
本稿では,地域・文化的側面を含む超国家的フェミニズムの概念に基づくジェンダーを考慮したマルチモーダルモデルの監査手法を提案する。
CLIPに焦点をあてて、世界各地の様々なパターンで有意な性別バイアスの証拠を見出した。
有害なステレオタイプ・アソシエーションは、視覚文化の手がかりやテロリズムなどのラベルに関連しても発見された。
クリップ内で発見された性別バイアスのレベルは、社会性平等のグローバル指標と一致し、世界南部のものは性別バイアスの最高レベルを反映している。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - From 'Showgirls' to 'Performers': Fine-tuning with Gender-inclusive Language for Bias Reduction in LLMs [1.1049608786515839]
我々は、ジェンダー・インクリシティを促進するために、大規模言語モデル内の言語構造に適応する。
私たちの作品の焦点は英語の「In'show-Girl'」や「man-cave」のような男女排他的な接尾辞である。
論文 参考訳(メタデータ) (2024-07-05T11:31:30Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Towards Region-aware Bias Evaluation Metrics [26.91545185271231]
性別バイアスの地域差を同定し,バイアス評価のための地域別ボトムアップアプローチを提案する。
提案手法は,ある地域におけるジェンダー・アライメント・トピックを使用し,トピック・ペアの形でジェンダー・バイアス・ディメンションを識別する。
提案するバイアストピックペアのいくつかは、既存のものと比較して、これらの領域における性別バイアスに対する人間の認識に匹敵するものである。
論文 参考訳(メタデータ) (2024-06-23T16:26:27Z) - Generalizing Fairness to Generative Language Models via Reformulation of Non-discrimination Criteria [4.738231680800414]
本稿では、生成言語モデルにおけるジェンダーバイアスの存在を解明し、定量化する方法について研究する。
我々は、独立性、分離性、充足性という3つのよく知られた非識別基準のジェネレーティブAIアナログを導出する。
本研究は,このような対話型言語モデルにおける職業性バイアスの存在に対処するものである。
論文 参考訳(メタデータ) (2024-03-13T14:19:08Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - The Birth of Bias: A case study on the evolution of gender bias in an
English language model [1.6344851071810076]
私たちは、英語のウィキペディアコーパスでトレーニングされたLSTMアーキテクチャを使って、比較的小さな言語モデルを使用します。
性別の表現は動的であり、訓練中に異なる位相を識別する。
モデルの入力埋め込みにおいて,ジェンダー情報が局所的に表現されることが示される。
論文 参考訳(メタデータ) (2022-07-21T00:59:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。