論文の概要: Person Perception Biases Exposed: Revisiting the First Impressions
Dataset
- arxiv url: http://arxiv.org/abs/2011.14906v1
- Date: Mon, 30 Nov 2020 15:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:35:40.324863
- Title: Person Perception Biases Exposed: Revisiting the First Impressions
Dataset
- Title(参考訳): パーセプションのバイアスが露呈:最初の印象データセットを再考
- Authors: Julio C. S. Jacques Junior, Agata Lapedriza, Cristina Palmero, Xavier
Bar\'o and Sergio Escalera
- Abstract要約: この研究はChaLearn First Impressionsデータベースを再考し、クラウドソーシングによるペアワイズ比較を用いてパーソナリティ知覚に注釈を付けた。
我々は、性別、民族性、年齢、顔の魅力といった認識特性に関連付けられた、既存の人の知覚バイアスを明らかにする。
- 参考スコア(独自算出の注目度): 26.412669618149106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work revisits the ChaLearn First Impressions database, annotated for
personality perception using pairwise comparisons via crowdsourcing. We analyse
for the first time the original pairwise annotations, and reveal existing
person perception biases associated to perceived attributes like gender,
ethnicity, age and face attractiveness. We show how person perception bias can
influence data labelling of a subjective task, which has received little
attention from the computer vision and machine learning communities by now. We
further show that the mechanism used to convert pairwise annotations to
continuous values may magnify the biases if no special treatment is considered.
The findings of this study are relevant for the computer vision community that
is still creating new datasets on subjective tasks, and using them for
practical applications, ignoring these perceptual biases.
- Abstract(参考訳): この研究はChaLearn First Impressionsデータベースを再考し、クラウドソーシングによるペアワイズ比較を用いてパーソナリティ知覚に注釈を付けた。
我々は,最初のペアワイズアノテーションを初めて分析し,性別,民族性,年齢,顔の魅力といった知覚的属性に関連する既存の人物知覚バイアスを明らかにする。
認知バイアスが主観的課題のデータラベリングにどのように影響するかを,コンピュータビジョンや機械学習コミュニティからほとんど注目されていない。
さらに,特別な扱いが考慮されない場合,ペアワイズアノテーションを連続値に変換するメカニズムはバイアスを増大させる可能性があることを示した。
本研究は,コンピュータビジョンのコミュニティにおいて,主観的タスクに関する新たなデータセットを作成し,これらのバイアスを無視した実践的応用に利用している。
関連論文リスト
- Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Evaluating Bias and Fairness in Gender-Neutral Pretrained
Vision-and-Language Models [23.65626682262062]
我々は,3種類の視覚・言語モデルを用いた事前学習および微調整後のバイアス増幅の定量化を行う。
全体として、事前学習および微調整後のバイアス増幅は独立である。
論文 参考訳(メタデータ) (2023-10-26T16:19:19Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Personalized Detection of Cognitive Biases in Actions of Users from
Their Logs: Anchoring and Recency Biases [9.445205340175555]
私たちは2つの認知バイアス – アンカーとリリーン – に焦点を当てています。
コンピュータ科学における認知バイアスの認識は、主に情報検索の領域にある。
我々は、ユーザの行動のWebログからこれらの2つの認知バイアスを検出するために、機械学習と共に原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2022-06-30T08:51:15Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Uncovering the Bias in Facial Expressions [0.0]
我々は、アクションユニット分類のためのニューラルネットワークを訓練し、その精度と熱マップに基づく定性に基づいて、その性能を定量的に分析する。
結果の構造化されたレビューは、偏見を検出することができることを示している。
この結果から、性別や肌の色偏りのみから低い分類性能が出現したと結論付けることはできないが、これらのバイアスに対処する必要がある。
論文 参考訳(メタデータ) (2020-11-23T10:20:10Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。