論文の概要: Foundations for Unfairness in Anomaly Detection -- Case Studies in Facial Imaging Data
- arxiv url: http://arxiv.org/abs/2407.19646v1
- Date: Mon, 29 Jul 2024 02:04:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 15:25:50.029803
- Title: Foundations for Unfairness in Anomaly Detection -- Case Studies in Facial Imaging Data
- Title(参考訳): 異常検出における異常の基礎 --顔画像データにおけるケーススタディ
- Authors: Michael Livanos, Ian Davidson,
- Abstract要約: 本稿では,ADアルゴリズムの主な2つのカテゴリ,オートエンコーダベースとシングルクラスベースについて検討する。
我々は,集団の表現不足などの不公平性の源泉を実験的に検証する。
- 参考スコア(独自算出の注目度): 15.414204257189596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep anomaly detection (AD) is perhaps the most controversial of data analytic tasks as it identifies entities that are then specifically targeted for further investigation or exclusion. Also controversial is the application of AI to facial imaging data. This work explores the intersection of these two areas to understand two core questions: "Who" these algorithms are being unfair to and equally important "Why". Recent work has shown that deep AD can be unfair to different groups despite being unsupervised with a recent study showing that for portraits of people: men of color are far more likely to be chosen to be outliers. We study the two main categories of AD algorithms: autoencoder-based and single-class-based which effectively try to compress all the instances with those that can not be easily compressed being deemed to be outliers. We experimentally verify sources of unfairness such as the under-representation of a group (e.g. people of color are relatively rare), spurious group features (e.g. men are often photographed with hats), and group labeling noise (e.g. race is subjective). We conjecture that lack of compressibility is the main foundation and the others cause it but experimental results show otherwise and we present a natural hierarchy amongst them.
- Abstract(参考訳): 深部異常検出(Deep Anomaly Detection, AD)は、データ分析タスクの中でも最も議論を呼んでいる。
また、顔画像データへのAIの応用についても議論がある。
この研究は、これらの2つの領域の交わりを探索し、2つの中核的な問題を理解する:「なぜ」これらのアルゴリズムは不公平であり、同様に重要な「なぜ」である。
最近の研究は、深部ADは異なるグループに対して不公平であることを示しているが、近年の研究では、人々の肖像画について、色のある男性はより不公平に選択される可能性がはるかに高いことが示されている。
我々は,ADアルゴリズムの2つの主要なカテゴリについて検討する。オートエンコーダベースと単一クラスベースで,すべてのインスタンスを,容易に圧縮できないもので効果的に圧縮しようとする。
我々は,集団の低表現(例えば,有色人種は比較的稀),刺激的なグループ特徴(例えば,男性は帽子で撮影されることが多い),グループラベリングノイズ(例えば,人種は主観的である)などの不公平な情報源を実験的に検証した。
我々は圧縮性の欠如が主な基礎であり、他のものはそれを引き起こすと推測するが、実験の結果はそうでなければ示し、それらの間に自然な階層が現れる。
関連論文リスト
- Fairpriori: Improving Biased Subgroup Discovery for Deep Neural Network Fairness [21.439820064223877]
本稿では,新しいバイアス付きサブグループ発見法であるFairprioriを紹介する。
このアルゴリズムは、交差点バイアスの効率的かつ効率的な調査を容易にするために、頻繁なアイテムセット生成アルゴリズムを組み込んでいる。
フェアプリオリは交叉バイアスを特定する際に優れた効果と効率を示す。
論文 参考訳(メタデータ) (2024-06-25T00:15:13Z) - Mitigating Algorithmic Bias on Facial Expression Recognition [0.0]
バイアス付きデータセットはユビキタスであり、機械学習の課題を提示している。
偏りのあるデータセットの問題は、少数民族グループを扱う際に特に敏感である。
本研究は, 表情認識実験による偏差変化型オートエンコーダを用いて, 偏差を緩和する方法の1つを探る。
論文 参考訳(メタデータ) (2023-12-23T17:41:30Z) - (Un)fair Exposure in Deep Face Rankings at a Distance [13.320917259299652]
そこで本稿では, 人種集団が被曝時の偏見に悩む程度を, 法医学的顔のランク付けの文脈で調査する枠組みを提案する。
我々は、この領域内の露光バイアスが対処されるには程遠いことを示し、アドホックな政策と是正措置の確立に注意を払っている。
論文 参考訳(メタデータ) (2023-08-22T18:43:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - An Examination of Fairness of AI Models for Deepfake Detection [5.4852920337961235]
我々は保護されたサブグループ間のディープフェイクデータセットおよび検出モデルに存在するバイアスを評価する。
人種と性別のバランスをとる顔データセットを用いて,3つの一般的なディープフェイク検出器を調べ,人種間の予測性能に大きな差を見出した。
論文 参考訳(メタデータ) (2021-05-02T21:55:04Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。