論文の概要: Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases
- arxiv url: http://arxiv.org/abs/2010.15052v3
- Date: Wed, 27 Jan 2021 18:48:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 06:04:44.054519
- Title: Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases
- Title(参考訳): 人型ビアーゼを含む教師なし事前学習で学習した画像表現
- Authors: Ryan Steed and Aylin Caliskan
- Abstract要約: 本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
一般的なベンチマーク画像データセットであるImageNetでトレーニングされた最先端の教師なしモデルは、人種、性別、交差点バイアスを自動的に学習する。
- 参考スコア(独自算出の注目度): 3.0349733976070015
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in machine learning leverage massive datasets of unlabeled
images from the web to learn general-purpose image representations for tasks
from image classification to face recognition. But do unsupervised computer
vision models automatically learn implicit patterns and embed social biases
that could have harmful downstream effects? We develop a novel method for
quantifying biased associations between representations of social concepts and
attributes in images. We find that state-of-the-art unsupervised models trained
on ImageNet, a popular benchmark image dataset curated from internet images,
automatically learn racial, gender, and intersectional biases. We replicate 8
previously documented human biases from social psychology, from the innocuous,
as with insects and flowers, to the potentially harmful, as with race and
gender. Our results closely match three hypotheses about intersectional bias
from social psychology. For the first time in unsupervised computer vision, we
also quantify implicit human biases about weight, disabilities, and several
ethnicities. When compared with statistical patterns in online image datasets,
our findings suggest that machine learning models can automatically learn bias
from the way people are stereotypically portrayed on the web.
- Abstract(参考訳): 機械学習の最近の進歩は、Webからのラベルなし画像の膨大なデータセットを活用して、画像分類から顔認識までタスクの汎用画像表現を学習している。
しかし、教師なしのコンピュータビジョンモデルは自動的に暗黙のパターンを学習し、有害な下流効果をもたらす社会的バイアスを埋め込むだろうか?
本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
imagenetは、インターネットイメージからキュレートされた人気のあるベンチマーク画像データセットで、人種、性別、交叉バイアスを自動的に学習する。
社会心理学から、昆虫や花のように無害なものから、人種や性別のように潜在的に有害なものまで、8つの人間のバイアスを再現しています。
以上の結果は,社会心理学の交叉バイアスに関する3つの仮説と密接に一致した。
教師なしのコンピュータビジョンで初めて、重量、障害、およびいくつかの民族に関する暗黙の人間の偏見を定量化した。
オンライン画像データセットの統計的パターンと比較すると、機械学習モデルは、人々がウェブ上でステレオタイプ的に描写される方法から自動的にバイアスを学習できることが示唆される。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Examining Pathological Bias in a Generative Adversarial Network Discriminator: A Case Study on a StyleGAN3 Model [0.31572294564491876]
GAN(Generative Adversarial Network)は、実際の顔から人間に区別できない、フォトリアリスティックな顔を生成する。
事前学習したStyleGAN3-rモデルの判別器において,病理内部色と輝度バイアスが認められた。
また、判別器は、画像レベルと顔レベルの両方の品質でスコアを体系的に階層化し、不均等に性別、人種、その他のカテゴリーのイメージに影響を及ぼすことも見出した。
論文 参考訳(メタデータ) (2024-02-15T08:34:21Z) - Probing Intersectional Biases in Vision-Language Models with
Counterfactual Examples [5.870913541790421]
我々は、テキスト・ツー・イメージ拡散モデルを用いて、大規模に侵入する社会的バイアスを探索する対実例を作成する。
提案手法では,安定拡散とクロスアテンション制御を用いて,対実的画像とテキストのペアのセットを生成する。
我々は、最先端のVLMに存在する交叉社会的バイアスを明らかにするために、生成されたデータセットを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-04T17:25:10Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Gender Slopes: Counterfactual Fairness for Computer Vision Models by
Attribute Manipulation [4.784524967912113]
自動コンピュータビジョンシステムは、セキュリティ、法執行機関、パーソナルデバイスを含む多くの領域に応用されている。
最近の報告は、これらのシステムが偏りのある結果をもたらし、特定の人口集団の人々を差別する可能性があることを示唆している。
本稿では,性別や人種によって異なる顔画像の合成のために,画像操作のために開発されたエンコーダデコーダネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-21T02:33:28Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z) - A Set of Distinct Facial Traits Learned by Machines Is Not Predictive of
Appearance Bias in the Wild [3.0349733976070015]
我々は、社会心理学者によって測定された他の顔の人格特性に対する最初の印象に基づく学習モデルを訓練する。
FaceNetで抽出した特徴は、故意に操作された顔に対する人間の外見バイアススコアを予測するのに利用できる。
社会心理学における人間の偏見を扱うのとは対照的に、このモデルでは政治家の票共有と能力バイアスを関連づける重要なシグナルは見つからない。
論文 参考訳(メタデータ) (2020-02-13T17:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。