論文の概要: A Set of Distinct Facial Traits Learned by Machines Is Not Predictive of
Appearance Bias in the Wild
- arxiv url: http://arxiv.org/abs/2002.05636v3
- Date: Wed, 13 Jan 2021 17:15:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 09:34:51.214814
- Title: A Set of Distinct Facial Traits Learned by Machines Is Not Predictive of
Appearance Bias in the Wild
- Title(参考訳): 機械によって学習された一群の異なる顔特徴は野生の外観バイアスの予測ではない
- Authors: Ryan Steed and Aylin Caliskan
- Abstract要約: 我々は、社会心理学者によって測定された他の顔の人格特性に対する最初の印象に基づく学習モデルを訓練する。
FaceNetで抽出した特徴は、故意に操作された顔に対する人間の外見バイアススコアを予測するのに利用できる。
社会心理学における人間の偏見を扱うのとは対照的に、このモデルでは政治家の票共有と能力バイアスを関連づける重要なシグナルは見つからない。
- 参考スコア(独自算出の注目度): 3.0349733976070015
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Research in social psychology has shown that people's biased, subjective
judgments about another's personality based solely on their appearance are not
predictive of their actual personality traits. But researchers and companies
often utilize computer vision models to predict similarly subjective
personality attributes such as "employability." We seek to determine whether
state-of-the-art, black box face processing technology can learn human-like
appearance biases. With features extracted with FaceNet, a widely used face
recognition framework, we train a transfer learning model on human subjects'
first impressions of personality traits in other faces as measured by social
psychologists. We find that features extracted with FaceNet can be used to
predict human appearance bias scores for deliberately manipulated faces but not
for randomly generated faces scored by humans. Additionally, in contrast to
work with human biases in social psychology, the model does not find a
significant signal correlating politicians' vote shares with perceived
competence bias. With Local Interpretable Model-Agnostic Explanations (LIME),
we provide several explanations for this discrepancy. Our results suggest that
some signals of appearance bias documented in social psychology are not
embedded by the machine learning techniques we investigate. We shed light on
the ways in which appearance bias could be embedded in face processing
technology and cast further doubt on the practice of predicting subjective
traits based on appearances.
- Abstract(参考訳): 社会心理学の研究は、人の人格に関する偏見や主観的な判断は、外見のみに基づくものであり、実際の人格の特徴を予測していないことを示した。
しかし、研究者や企業はコンピュータビジョンモデルを使って「雇用可能性」のような類似の主観的性格特性を予測することが多い。
我々は、最先端のブラックボックス・フェイス・プロセッシング技術が人間の外観バイアスを学習できるかどうかを判断する。
顔認識フレームワークであるfacenetで抽出された特徴を用いて,他の顔における人格特性の最初の印象について,社会心理学者が測定した転向学習モデルを学習する。
FaceNetで抽出した特徴は、意図的に操作された顔に対して人間の外見バイアススコアを予測するのに利用できるが、人間が無作為に生成した顔には適用できない。
さらに、社会心理学における人間のバイアスとは対照的に、このモデルは政治家の票共有と能力バイアスとを関連づける重要なシグナルを見出さない。
LIME(Local Interpretable Model-Agnostic Explanations)では,この違いについていくつかの説明を行う。
以上の結果から,社会心理学における外見バイアスの信号は,調査対象の機械学習技術に埋め込まれていないことが示唆された。
我々は,顔処理技術に外観バイアスを組み込む方法を明らかにし,外観に基づく主観的特徴を予測する実践に疑問を投げかけた。
関連論文リスト
- Social perception of faces in a vision-language model [11.933952003478172]
オープンソースの視覚言語モデルであるCLIPにおける人間の顔の社会的知覚について検討する。
年齢、性別、人種は、CLIPの社会的知覚に体系的に影響を及ぼす。
黒人女性の顔には強い偏見パターンがある。
論文 参考訳(メタデータ) (2024-08-26T17:21:54Z) - Subjective Face Transform using Human First Impressions [5.026535087391025]
この研究は生成モデルを用いて、認識属性を変更する顔画像に意味論的に意味のある編集を見つける。
我々は、実際の顔と合成顔のトレーニングを行い、予測モデルと人間の評価を用いてドメイン内画像とドメイン外画像の評価を行う。
論文 参考訳(メタデータ) (2023-09-27T03:21:07Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - The Tail Wagging the Dog: Dataset Construction Biases of Social Bias
Benchmarks [75.58692290694452]
社会的偏見と、データセット構築時に選択された選択から生じる非社会的偏見を比較し、人間の目では識別できないかもしれない。
これらの浅い修正は、様々なモデルにまたがるバイアスの程度に驚くべき影響を及ぼす。
論文 参考訳(メタデータ) (2022-10-18T17:58:39Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Person Perception Biases Exposed: Revisiting the First Impressions
Dataset [26.412669618149106]
この研究はChaLearn First Impressionsデータベースを再考し、クラウドソーシングによるペアワイズ比較を用いてパーソナリティ知覚に注釈を付けた。
我々は、性別、民族性、年齢、顔の魅力といった認識特性に関連付けられた、既存の人の知覚バイアスを明らかにする。
論文 参考訳(メタデータ) (2020-11-30T15:41:27Z) - Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases [3.0349733976070015]
本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
一般的なベンチマーク画像データセットであるImageNetでトレーニングされた最先端の教師なしモデルは、人種、性別、交差点バイアスを自動的に学習する。
論文 参考訳(メタデータ) (2020-10-28T15:55:49Z) - Salient Facial Features from Humans and Deep Neural Networks [2.5211876507510724]
顔の分類に人間や畳み込みニューラルネットワーク(ConvNet)が利用する特徴について検討する。
我々は、特定の個人を特定する際に最もConvNetの出力に影響を与える顔の特徴を可視化するために、ガイドバックプロパゲーション(GB)を使用する。
論文 参考訳(メタデータ) (2020-03-08T22:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。