論文の概要: Lookism: The overlooked bias in computer vision
- arxiv url: http://arxiv.org/abs/2408.11448v1
- Date: Wed, 21 Aug 2024 09:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 17:49:48.094024
- Title: Lookism: The overlooked bias in computer vision
- Title(参考訳): Lookism:コンピュータビジョンにおける見過ごされた偏見
- Authors: Aditya Gulati, Bruno Lepri, Nuria Oliver,
- Abstract要約: ルックリズムはコンピュータビジョンでは探索されていないが、深い意味を持つ可能性がある。
本稿では,コンピュータビジョンモデルにおける重要なバイアスとして,ルックリズムの体系的研究を提唱する。
- 参考スコア(独自算出の注目度): 11.306732956100213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, there have been significant advancements in computer vision which have led to the widespread deployment of image recognition and generation systems in socially relevant applications, from hiring to security screening. However, the prevalence of biases within these systems has raised significant ethical and social concerns. The most extensively studied biases in this context are related to gender, race and age. Yet, other biases are equally pervasive and harmful, such as lookism, i.e., the preferential treatment of individuals based on their physical appearance. Lookism remains under-explored in computer vision but can have profound implications not only by perpetuating harmful societal stereotypes but also by undermining the fairness and inclusivity of AI technologies. Thus, this paper advocates for the systematic study of lookism as a critical bias in computer vision models. Through a comprehensive review of existing literature, we identify three areas of intersection between lookism and computer vision. We illustrate them by means of examples and a user study. We call for an interdisciplinary approach to address lookism, urging researchers, developers, and policymakers to prioritize the development of equitable computer vision systems that respect and reflect the diversity of human appearances.
- Abstract(参考訳): 近年,コンピュータビジョンの進歩により,採用からセキュリティスクリーニングに至るまで,社会的に関係のあるアプリケーションに画像認識と生成システムが広く普及している。
しかしながら、これらのシステムにおける偏見の流行は、重大な倫理的・社会的懸念を引き起こしている。
この文脈で最も広く研究されているバイアスは、性別、人種、年齢に関するものである。
しかし、他のバイアスは、ルックリズム、すなわち、身体的外観に基づく個人の優先的な扱いなど、等しく広まり、有害である。
ルックリズムはコンピュータビジョンでは未熟だが、有害な社会的ステレオタイプを永続させることだけでなく、AI技術の公正性と傾きを損なうことによって、深い意味を持つことができる。
そこで本研究では,コンピュータビジョンモデルにおける批判バイアスとして,ルックリズムの体系的研究を提唱する。
既存の文献の総合的なレビューを通じて、ルックリズムとコンピュータビジョンの3つの領域を識別する。
実例とユーザスタディを用いて、それらを説明します。
我々は、外見の多様性を尊重し反映する公平なコンピュータビジョンシステムの開発を優先するよう、研究者、開発者、政策立案者に促す、ルックリズムに対処するための学際的アプローチを求めている。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - Debiasing Methods for Fairer Neural Models in Vision and Language
Research: A Survey [3.4767443062432326]
フェアネスを意識したニューラルネットワークの主なデバイアス法について,詳細な概要を述べる。
本研究では,公平性に関する嫌悪法に関する文献を整理する新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-11-10T14:42:46Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - GenderRobustness: Robustness of Gender Detection in Facial Recognition
Systems with variation in Image Properties [0.5330240017302619]
人工知能システムや、暗黙のバイアスを持つコンピュータビジョンのアルゴリズムに対する非難が増えている。
バイアスが存在すると言われるシステムの1つに顔認識システムがあり、性別、民族、肌の色、その他の顔の特徴に基づいて偏見が観察されている。
これらのシステムの開発者は、バイアスが最小限か理想的には存在しないものに維持されるようにします。
論文 参考訳(メタデータ) (2020-11-18T18:13:23Z) - Gender Slopes: Counterfactual Fairness for Computer Vision Models by
Attribute Manipulation [4.784524967912113]
自動コンピュータビジョンシステムは、セキュリティ、法執行機関、パーソナルデバイスを含む多くの領域に応用されている。
最近の報告は、これらのシステムが偏りのある結果をもたらし、特定の人口集団の人々を差別する可能性があることを示唆している。
本稿では,性別や人種によって異なる顔画像の合成のために,画像操作のために開発されたエンコーダデコーダネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-21T02:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。