論文の概要: Fairness Properties of Face Recognition and Obfuscation Systems
- arxiv url: http://arxiv.org/abs/2108.02707v1
- Date: Thu, 5 Aug 2021 16:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:53:59.367673
- Title: Fairness Properties of Face Recognition and Obfuscation Systems
- Title(参考訳): 顔認識と難読化システムの公平性
- Authors: Harrison Rosenberg, Brian Tang, Kassem Fawaz, and Somesh Jha
- Abstract要約: 顔難読化システムは、画像に追加されると知覚不能な摂動を生成し、顔認識システムがユーザを誤識別させる。
顔認識の文脈で不公平であることが知られているメートル法埋め込みネットワークに対する顔難読化のこのような依存は、人口統計学的公正性の問題を表面化させる。
グラフ埋め込みネットワークは人口統計学的に認識されており、それらの人口統計学的特性に基づいて埋め込み空間に顔をクラスタリングしている。
- 参考スコア(独自算出の注目度): 19.195705814819306
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The proliferation of automated facial recognition in various commercial and
government sectors has caused significant privacy concerns for individuals. A
recent and popular approach to address these privacy concerns is to employ
evasion attacks against the metric embedding networks powering facial
recognition systems. Face obfuscation systems generate imperceptible
perturbations, when added to an image, cause the facial recognition system to
misidentify the user. The key to these approaches is the generation of
perturbations using a pre-trained metric embedding network followed by their
application to an online system, whose model might be proprietary. This
dependence of face obfuscation on metric embedding networks, which are known to
be unfair in the context of facial recognition, surfaces the question of
demographic fairness -- \textit{are there demographic disparities in the
performance of face obfuscation systems?} To address this question, we perform
an analytical and empirical exploration of the performance of recent face
obfuscation systems that rely on deep embedding networks. We find that metric
embedding networks are demographically aware; they cluster faces in the
embedding space based on their demographic attributes. We observe that this
effect carries through to the face obfuscation systems: faces belonging to
minority groups incur reduced utility compared to those from majority groups.
For example, the disparity in average obfuscation success rate on the online
Face++ API can reach up to 20 percentage points. Further, for some demographic
groups, the average perturbation size increases by up to 17\% when choosing a
target identity belonging to a different demographic group versus the same
demographic group. Finally, we present a simple analytical model to provide
insights into these phenomena.
- Abstract(参考訳): さまざまな商業分野や政府分野における顔認識の自動生成が、個人にとって大きなプライバシー上の懸念を引き起こしている。
これらのプライバシー問題に対処する最近の一般的なアプローチは、顔認識システムを支えるメートル法埋め込みネットワークに対する回避攻撃を採用することである。
顔難読化システムは、画像に追加されると知覚不能な摂動を生成し、顔認識システムがユーザを誤識別させる。
これらのアプローチの鍵は、事前訓練されたメトリック埋め込みネットワークを使った摂動の発生と、そのモデルがプロプライエタリであるかもしれないオンラインシステムへの応用である。
顔認識の文脈で不公平であることが知られているメートル法埋め込みネットワークにおける顔難読化のこの依存は、人口統計学的公正性の問題を表面化する。
この問題に対処するために, 深層埋込ネットワークに依存する最近の顔難読化システムの性能を解析的, 実証的に調査する。
グラフ埋め込みネットワークは人口統計学的に認識されており、それらの人口統計学的特性に基づいて埋め込み空間に顔をクラスタリングしている。
マイノリティグループに属する顔は、多数派の顔に比べて有用性を低下させる。
例えば、オンラインのface++ apiでの平均難読化成功率の差は最大20ポイントに達する。
さらに、一部の人口統計グループでは、異なる人口統計グループに属するターゲットアイデンティティを同じ人口統計グループと比較すると、平均摂動サイズが最大17\%増加する。
最後に,これらの現象に対する洞察を与えるための簡易解析モデルを提案する。
関連論文リスト
- Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - My Face My Choice: Privacy Enhancing Deepfakes for Social Media
Anonymization [4.725675279167593]
仮説的ソーシャルネットワークに3つの顔アクセスモデルを導入し、ユーザーが承認した写真にのみ現れる能力を持つ。
我々のアプローチは、現在のタグ付けシステムを廃止し、未承認の顔を定量的に異なるディープフェイクに置き換える。
その結果,7つのSOTA顔認識器を動作させることで,平均精度を61%削減できることがわかった。
論文 参考訳(メタデータ) (2022-11-02T17:58:20Z) - Towards Intrinsic Common Discriminative Features Learning for Face
Forgery Detection using Adversarial Learning [59.548960057358435]
本稿では, 対人学習を利用して, 異なる偽造法と顔の同一性による負の効果を除去する手法を提案する。
我々の顔偽造検出モデルは、偽造法や顔の同一性の影響を排除し、共通の識別的特徴を抽出することを学ぶ。
論文 参考訳(メタデータ) (2022-07-08T09:23:59Z) - Generating Master Faces for Dictionary Attacks with a Network-Assisted
Latent Space Evolution [68.8204255655161]
マスターフェイス(英: master face)とは、人口の大部分が顔に基づくアイデンティティ認証を通した顔画像である。
そこで我々は,StyleGANフェイスジェネレータの潜伏埋め込み空間における進化的アルゴリズムを用いて,これらの顔の最適化を行う。
論文 参考訳(メタデータ) (2021-08-01T12:55:23Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - SensitiveLoss: Improving Accuracy and Fairness of Face Representations
with Discrimination-Aware Deep Learning [17.088716485755917]
偏見認識アルゴリズムの精度と公平性を改善するための識別認識学習法を提案する。
実験により、最もよく使われている顔データベースに基づく学習プロセスが、アルゴリズムによる識別の強い、一般的な訓練済みの深層顔モデルに繋がったことを示す。
提案手法は,事前学習ネットワークへのアドオンとして機能し,平均精度と公平性の観点から性能向上に有効である。
論文 参考訳(メタデータ) (2020-04-22T10:32:16Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。