論文の概要: MultiModal Bias: Introducing a Framework for Stereotypical Bias
Assessment beyond Gender and Race in Vision Language Models
- arxiv url: http://arxiv.org/abs/2303.12734v1
- Date: Thu, 16 Mar 2023 17:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 02:59:28.973363
- Title: MultiModal Bias: Introducing a Framework for Stereotypical Bias
Assessment beyond Gender and Race in Vision Language Models
- Title(参考訳): マルチモーダルバイアス:視覚言語モデルにおけるジェンダーとレースを超えたステレオタイプバイアス評価フレームワークの導入
- Authors: Sepehr Janghorbani and Gerard de Melo
- Abstract要約: MMBiasと呼ばれる視覚的およびテキスト的バイアスベンチマークを提供し、約3,800の画像と14のサブグループをカバーするフレーズからなる。
このデータセットを用いて、CLIP、ALBEF、VLTを含むいくつかの著名な自己監督型マルチモーダルモデルにおけるバイアスを評価する。
バイアスを緩和するための後処理ステップとして適用可能な,大規模な事前学習モデルに特化して設計されたデバイアス処理手法を提案する。
- 参考スコア(独自算出の注目度): 40.12132844347926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent breakthroughs in self supervised training have led to a new class of
pretrained vision language models. While there have been investigations of bias
in multimodal models, they have mostly focused on gender and racial bias,
giving much less attention to other relevant groups, such as minorities with
regard to religion, nationality, sexual orientation, or disabilities. This is
mainly due to lack of suitable benchmarks for such groups. We seek to address
this gap by providing a visual and textual bias benchmark called MMBias,
consisting of around 3,800 images and phrases covering 14 population subgroups.
We utilize this dataset to assess bias in several prominent self supervised
multimodal models, including CLIP, ALBEF, and ViLT. Our results show that these
models demonstrate meaningful bias favoring certain groups. Finally, we
introduce a debiasing method designed specifically for such large pre-trained
models that can be applied as a post-processing step to mitigate bias, while
preserving the remaining accuracy of the model.
- Abstract(参考訳): 近年の自己教師型訓練の進歩は、事前訓練された視覚言語モデルの新しいクラスに繋がった。
マルチモーダルモデルのバイアスに関する調査は行われてきたが、それらは主に性別や人種のバイアスに焦点を当てており、宗教、国籍、性的指向、障害に関するマイノリティなどの他の関連グループへの注意を少なくしている。
これは主に、そのようなグループに適したベンチマークがないためである。
私たちは、約3,800の画像と14のサブグループをカバーするフレーズからなるmmbiasと呼ばれるビジュアルおよびテキストバイアスベンチマークを提供することで、このギャップに対処しようとしています。
このデータセットを用いて,クリップ,albef,vultなどの自己教師付きマルチモーダルモデルにおいてバイアスを評価する。
その結果,これらのモデルが特定のグループに有利な有意義なバイアスを示すことがわかった。
最後に,このような大規模事前学習モデルに特化して設計されたデバイアス法を導入し,残余の精度を保ちながら,バイアスを軽減するための後処理ステップとして適用することができる。
関連論文リスト
- Social Bias Probing: Fairness Benchmarking for Language Models [48.5644008956526]
本稿では,社会的バイアスに対する言語モデル探索のための独自のフレームワークを提案する。
我々は,言語モデルの一般関連を分析するための探索データセットを収集し,社会的カテゴリ,アイデンティティ,ステレオタイプなどの軸に沿って収集する。
論文 参考訳(メタデータ) (2023-11-15T16:35:59Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - "I'm sorry to hear that": Finding New Biases in Language Models with a
Holistic Descriptor Dataset [12.000335510088648]
新しい包括的バイアス測定データセットであるHollisticBiasを紹介します。
HolisticBiasは、これらの用語の生きた経験を持つ専門家やコミュニティメンバーを含む参加的なプロセスで組み立てられた。
我々は,HolisticBiasが,言語モデルからトークンの確率において,検出不能なバイアスを測定するのに有効であることを実証した。
論文 参考訳(メタデータ) (2022-05-18T20:37:25Z) - Worst of Both Worlds: Biases Compound in Pre-trained Vision-and-Language
Models [17.90351661475405]
この研究は、テキストベースのバイアス分析手法を拡張し、マルチモーダル言語モデルを調べる。
VL-BERTが性別バイアスを示し、視覚シーンを忠実に表現するよりもステレオタイプを強化することを好むことが多いことを実証します。
論文 参考訳(メタデータ) (2021-04-18T00:02:32Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。