論文の概要: Two-Face: Adversarial Audit of Commercial Face Recognition Systems
- arxiv url: http://arxiv.org/abs/2111.09137v1
- Date: Wed, 17 Nov 2021 14:21:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 17:09:42.043453
- Title: Two-Face: Adversarial Audit of Commercial Face Recognition Systems
- Title(参考訳): 2面:商用顔認証システムの逆聴取
- Authors: Siddharth D Jaiswal, Karthikeya Duggirala, Abhisek Dash, Animesh
Mukherjee
- Abstract要約: コンピュータビジョンの応用は少数派に対して偏見がちで、不公平で社会的、政治的結果に関係している。
我々は、複数のシステムやデータセットに対する広範囲な敵監査を行い、多くの観察を行った。
本稿は、これらの観察を踏まえて、より広範な社会的影響と、この問題を総合的に扱う方法についてのいくつかの提案から締めくくった。
- 参考スコア(独自算出の注目度): 6.684965883341269
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision applications like automated face detection are used for a
variety of purposes ranging from unlocking smart devices to tracking potential
persons of interest for surveillance. Audits of these applications have
revealed that they tend to be biased against minority groups which result in
unfair and concerning societal and political outcomes. Despite multiple studies
over time, these biases have not been mitigated completely and have in fact
increased for certain tasks like age prediction. While such systems are audited
over benchmark datasets, it becomes necessary to evaluate their robustness for
adversarial inputs. In this work, we perform an extensive adversarial audit on
multiple systems and datasets, making a number of concerning observations -
there has been a drop in accuracy for some tasks on CELEBSET dataset since a
previous audit. While there still exists a bias in accuracy against individuals
from minority groups for multiple datasets, a more worrying observation is that
these biases tend to get exorbitantly pronounced with adversarial inputs toward
the minority group. We conclude with a discussion on the broader societal
impacts in light of these observations and a few suggestions on how to
collectively deal with this issue.
- Abstract(参考訳): 自動顔検出などのコンピュータビジョンアプリケーションは、スマートデバイスのアンロックから、監視対象の潜在的な人を追跡するまで、さまざまな目的で使用されている。
これらの応用の聴衆は、彼らが不公平で社会的、政治的結果に関する少数派グループに対して偏見を持つ傾向があることを明らかにしている。
長年にわたる複数の研究にもかかわらず、これらのバイアスは完全に緩和されておらず、年齢予測のような特定のタスクで増加してきた。
このようなシステムはベンチマークデータセット上で監査されるが、逆入力に対する堅牢性を評価する必要がある。
本研究では,複数のシステムやデータセットに対する大規模な逆監査を行い,前回の監査以降,CELEBSETデータセット上のタスクの精度が低下していることを示す。
複数のデータセットに対するマイノリティグループからの個人に対する正確さのバイアスは依然として存在するが、より心配なのは、これらのバイアスがマイノリティグループに対して逆のインプットで非常に発音される傾向があることだ。
我々は、これらの観察と、この問題を総括的に扱う方法についてのいくつかの提案を踏まえて、幅広い社会的影響についての議論を締めくくった。
関連論文リスト
- Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - Reducing annotator bias by belief elicitation [3.0040661953201475]
アノテーションやインスタンスの数を必要とせずに、アノテーションのバイアスを処理するための簡単な方法を提案する。
我々は、アノテータが他のアノテータのインスタンスに対する判断に対する信念について、これらの信念が判断よりもより代表的なラベルを提供するかもしれないという仮説の下で尋ねる。
その結果、アノテータの2つのグループ間の体系的な差異として定義されるバイアスは、判断の代わりに信念を求める際に一貫して減少することが示された。
論文 参考訳(メタデータ) (2024-10-21T07:44:01Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Measuring Adversarial Datasets [28.221635644616523]
研究者は、標準的なベンチマークデータセットでは明らかにできないモデル欠陥をキャプチャするために、さまざまな逆データセットをキュレートした。
これらの敵対的変換の意図的かつ意図しない結果を測定する方法はまだ存在しない。
NLPタスクのテキストインスタンスを記述した既存の定量化指標の体系的な調査を行った。
論文 参考訳(メタデータ) (2023-11-06T22:08:16Z) - ICON$^2$: Reliably Benchmarking Predictive Inequity in Object Detection [23.419153864862174]
コンピュータビジョンシステムにおける社会的バイアスに関する懸念が高まっている。
ICON$2$は、この問題にしっかりと答えるためのフレームワークです。
BDD100K運転データセットから得られる収入に関して,物体検出の性能に関する詳細な研究を行う。
論文 参考訳(メタデータ) (2023-06-07T17:42:42Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Scene BERT: Improving object detection by searching for
challenging groups of data [125.40669814080047]
コンピュータビジョンアプリケーションは、物体検出のようなタスクのためにニューラルネットワークでパラメータ化された学習ベースの知覚モジュールに依存している。
これらのモジュールは、トレーニングプロセスに固有のバイアスのため、予想される誤差が低いが、データの非定型的なグループに対して高い誤差を持つことが多い。
本研究の主な貢献は,シミュレートされたシーンに対して因果的介入を行うことにより,前向きにそのようなグループを発見する擬似オートマチック手法である。
論文 参考訳(メタデータ) (2022-02-08T05:14:16Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。