論文の概要: Gender Slopes: Counterfactual Fairness for Computer Vision Models by
Attribute Manipulation
- arxiv url: http://arxiv.org/abs/2005.10430v1
- Date: Thu, 21 May 2020 02:33:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 22:34:43.259087
- Title: Gender Slopes: Counterfactual Fairness for Computer Vision Models by
Attribute Manipulation
- Title(参考訳): ジェンダースロープ:属性操作によるコンピュータビジョンモデルの非現実的公正性
- Authors: Jungseock Joo, Kimmo K\"arkk\"ainen
- Abstract要約: 自動コンピュータビジョンシステムは、セキュリティ、法執行機関、パーソナルデバイスを含む多くの領域に応用されている。
最近の報告は、これらのシステムが偏りのある結果をもたらし、特定の人口集団の人々を差別する可能性があることを示唆している。
本稿では,性別や人種によって異なる顔画像の合成のために,画像操作のために開発されたエンコーダデコーダネットワークを提案する。
- 参考スコア(独自算出の注目度): 4.784524967912113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated computer vision systems have been applied in many domains including
security, law enforcement, and personal devices, but recent reports suggest
that these systems may produce biased results, discriminating against people in
certain demographic groups. Diagnosing and understanding the underlying true
causes of model biases, however, are challenging tasks because modern computer
vision systems rely on complex black-box models whose behaviors are hard to
decode. We propose to use an encoder-decoder network developed for image
attribute manipulation to synthesize facial images varying in the dimensions of
gender and race while keeping other signals intact. We use these synthesized
images to measure counterfactual fairness of commercial computer vision
classifiers by examining the degree to which these classifiers are affected by
gender and racial cues controlled in the images, e.g., feminine faces may
elicit higher scores for the concept of nurse and lower scores for STEM-related
concepts. We also report the skewed gender representations in an online search
service on profession-related keywords, which may explain the origin of the
biases encoded in the models.
- Abstract(参考訳): 自動化されたコンピュータビジョンシステムは、セキュリティ、法執行機関、パーソナルデバイスを含む多くの領域で適用されてきたが、最近の報告によると、これらのシステムは偏った結果をもたらし、特定の人口集団の人々に差別を与える可能性がある。
しかし、現代のコンピュータビジョンシステムは、デコードが難しい複雑なブラックボックスモデルに依存しているため、モデルバイアスの根底にある真の原因の診断と理解は難しい課題である。
本稿では,画像属性の操作のために開発したエンコーダデコーダネットワークを用いて,性別や人種によって異なる顔画像の合成を行う。
これらの合成画像を用いて,これらの分類器が性別や人種的手がかりに左右される程度,例えば,女性の顔は看護婦の概念の高得点やstem関連の概念の低得点を誘発する可能性があるかを調べることにより,商業コンピュータビジョン分類器の非現実的公平性を測定する。
また,オンライン検索サービスにおける職業関連キーワードの歪んだ性表現について報告し,モデルに符号化されたバイアスの起源を説明する。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Synthetic Counterfactual Faces [1.3062016289815055]
我々は、ターゲットとなる、対実的で高品質な合成顔データを構築するための生成AIフレームワークを構築します。
私たちのパイプラインには、顔認識システム感度評価や画像理解システムプローブなど、多くのユースケースがあります。
商用ビジョンモデルにおける顔生成パイプラインの有効性を示す。
論文 参考訳(メタデータ) (2024-07-18T22:22:49Z) - FACET: Fairness in Computer Vision Evaluation Benchmark [21.862644380063756]
コンピュータビジョンモデルは、性別や肌のトーンなどの属性間でパフォーマンスの相違が知られている。
FACET (FAirness in Computer Vision EvaluaTion) という新しいベンチマークを提案する。
FACETは、最も一般的な視覚タスクのための32kイメージの大規模な、一般公開された評価セットである。
論文 参考訳(メタデータ) (2023-08-31T17:59:48Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - GenderRobustness: Robustness of Gender Detection in Facial Recognition
Systems with variation in Image Properties [0.5330240017302619]
人工知能システムや、暗黙のバイアスを持つコンピュータビジョンのアルゴリズムに対する非難が増えている。
バイアスが存在すると言われるシステムの1つに顔認識システムがあり、性別、民族、肌の色、その他の顔の特徴に基づいて偏見が観察されている。
これらのシステムの開発者は、バイアスが最小限か理想的には存在しないものに維持されるようにします。
論文 参考訳(メタデータ) (2020-11-18T18:13:23Z) - Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases [3.0349733976070015]
本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
一般的なベンチマーク画像データセットであるImageNetでトレーニングされた最先端の教師なしモデルは、人種、性別、交差点バイアスを自動的に学習する。
論文 参考訳(メタデータ) (2020-10-28T15:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。