論文の概要: (Un)fair Exposure in Deep Face Rankings at a Distance
- arxiv url: http://arxiv.org/abs/2308.11732v1
- Date: Tue, 22 Aug 2023 18:43:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 17:09:09.002179
- Title: (Un)fair Exposure in Deep Face Rankings at a Distance
- Title(参考訳): 遠方における深部顔ランキングにおける(un)fair露光
- Authors: Andrea Atzori, Gianni Fenu, Mirko Marras
- Abstract要約: そこで本稿では, 人種集団が被曝時の偏見に悩む程度を, 法医学的顔のランク付けの文脈で調査する枠組みを提案する。
我々は、この領域内の露光バイアスが対処されるには程遠いことを示し、アドホックな政策と是正措置の確立に注意を払っている。
- 参考スコア(独自算出の注目度): 13.320917259299652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Law enforcement regularly faces the challenge of ranking suspects from their
facial images. Deep face models aid this process but frequently introduce
biases that disproportionately affect certain demographic segments. While bias
investigation is common in domains like job candidate ranking, the field of
forensic face rankings remains underexplored. In this paper, we propose a novel
experimental framework, encompassing six state-of-the-art face encoders and two
public data sets, designed to scrutinize the extent to which demographic groups
suffer from biases in exposure in the context of forensic face rankings.
Through comprehensive experiments that cover both re-identification and
identification tasks, we show that exposure biases within this domain are far
from being countered, demanding attention towards establishing ad-hoc policies
and corrective measures. The source code is available at
https://github.com/atzoriandrea/ijcb2023-unfair-face-rankings
- Abstract(参考訳): 法執行機関は、顔画像から容疑者をランク付けするという課題に直面している。
ディープフェイスモデルは、このプロセスに役立つが、特定の人口構成に不均等に影響を及ぼすバイアスをしばしば導入する。
就職候補者ランキングのような領域では偏見調査が一般的であるが、法医学的な顔のランキングの分野はいまだに未調査である。
本稿では,6つの最先端顔エンコーダと2つの公開データセットを包含する,新たな実験フレームワークを提案する。
再識別作業と識別作業の両方をカバーする総合的な実験を通じて、この領域内の露光バイアスは対処されるには程遠いことを示し、アドホックな政策の確立と修正措置に注意を払っている。
ソースコードはhttps://github.com/atzoriandrea/ijcb2023-unfair-face- ranksで入手できる。
関連論文リスト
- Foundations for Unfairness in Anomaly Detection -- Case Studies in Facial Imaging Data [15.414204257189596]
本稿では,ADアルゴリズムの主な2つのカテゴリ,オートエンコーダベースとシングルクラスベースについて検討する。
我々は,集団の表現不足などの不公平性の源泉を実験的に検証する。
論文 参考訳(メタデータ) (2024-07-29T02:04:29Z) - Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - OpenForensics: Large-Scale Challenging Dataset For Multi-Face Forgery
Detection And Segmentation In-The-Wild [48.67582300190131]
本稿では,多面フォージェリ検出とセグメント化という2つの新しい対策課題について述べる。
制約のない自然の場面で、複数の人間の顔に偽の顔を置くことは、従来のディープフェイク認識タスクよりもはるかに難しい。
豊富なアノテーションによって、私たちのOpenForensicsデータセットは、ディープフェイク防止と一般的な人間の顔検出の両方の研究に大きな可能性を秘めています。
論文 参考訳(メタデータ) (2021-07-30T08:15:41Z) - An Examination of Fairness of AI Models for Deepfake Detection [5.4852920337961235]
我々は保護されたサブグループ間のディープフェイクデータセットおよび検出モデルに存在するバイアスを評価する。
人種と性別のバランスをとる顔データセットを用いて,3つの一般的なディープフェイク検出器を調べ,人種間の予測性能に大きな差を見出した。
論文 参考訳(メタデータ) (2021-05-02T21:55:04Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。