論文の概要: Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification
- arxiv url: http://arxiv.org/abs/2001.03071v2
- Date: Fri, 10 Jan 2020 21:17:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 05:15:19.289627
- Title: Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification
- Title(参考訳): 顔認識訓練データへの包含が顔識別に与える影響の検討
- Authors: Chris Dulhanty, Alexander Wong
- Abstract要約: 最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
- 参考スコア(独自算出の注目度): 93.5538147928669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern face recognition systems leverage datasets containing images of
hundreds of thousands of specific individuals' faces to train deep
convolutional neural networks to learn an embedding space that maps an
arbitrary individual's face to a vector representation of their identity. The
performance of a face recognition system in face verification (1:1) and face
identification (1:N) tasks is directly related to the ability of an embedding
space to discriminate between identities. Recently, there has been significant
public scrutiny into the source and privacy implications of large-scale face
recognition training datasets such as MS-Celeb-1M and MegaFace, as many people
are uncomfortable with their face being used to train dual-use technologies
that can enable mass surveillance. However, the impact of an individual's
inclusion in training data on a derived system's ability to recognize them has
not previously been studied. In this work, we audit ArcFace, a
state-of-the-art, open source face recognition system, in a large-scale face
identification experiment with more than one million distractor images. We find
a Rank-1 face identification accuracy of 79.71% for individuals present in the
model's training data and an accuracy of 75.73% for those not present. This
modest difference in accuracy demonstrates that face recognition systems using
deep learning work better for individuals they are trained on, which has
serious privacy implications when one considers all major open source face
recognition training datasets do not obtain informed consent from individuals
during their collection.
- Abstract(参考訳): 現代の顔認識システムは、数十万の特定の個人の顔の画像を含むデータセットを活用して、深い畳み込みニューラルネットワークを訓練し、任意の個人の顔と自身のアイデンティティのベクトル表現をマッピングする埋め込み空間を学ぶ。
顔認証(1:1)における顔認識システムの性能と顔識別(1:N)タスクは、埋め込み空間が同一性間で識別する能力に直接関連している。
近年、MS-Celeb-1MやMegaFaceのような大規模な顔認識トレーニングデータセットのソースとプライバシに関する重要な調査が行われている。
しかし、個人がトレーニングデータに含まれることが、派生したシステムの認識能力に与える影響は、これまで研究されていない。
本研究では,現在最先端のオープンソース顔認識システムであるArcFaceを,100万枚以上の妨害画像を用いた大規模顔識別実験で評価する。
モデルのトレーニングデータに含まれている個人に対して、ランク1の顔を識別する精度は79.71%であり、存在しない人では75.73%である。
この微妙な精度の違いは、ディープラーニングを用いた顔認識システムが、トレーニング対象の個人にとってよりうまく機能していることを示しており、主要なオープンソース顔認識トレーニングデータセットが、収集中に個人からインフォームドコンセントを受け取らない場合、深刻なプライバシー上の意味がある。
関連論文リスト
- LAFS: Landmark-based Facial Self-supervised Learning for Face
Recognition [37.4550614524874]
我々は、効果的な顔認識モデルの訓練に適応できる顔表現の学習に焦点をあてる。
本研究では,自己教師付き事前学習による未ラベル顔画像の学習戦略について検討する。
提案手法は,複数の顔認識ベンチマークにおける最先端技術よりも大幅に向上する。
論文 参考訳(メタデータ) (2024-03-13T01:07:55Z) - Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Privacy-Preserving Face Recognition Using Random Frequency Components [46.95003101593304]
顔認識によってプライバシーの懸念が高まっている。
人間の知覚可能な低周波成分を抽出することで視覚情報を隠蔽することを提案する。
得られた知見を,プライバシ保護のための新しい顔認識手法であるPartialFaceに抽出する。
論文 参考訳(メタデータ) (2023-08-21T04:31:02Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - An Attack on Feature Level-based Facial Soft-biometric Privacy
Enhancement [13.780253190395715]
特徴レベルに基づく顔ソフトバイオメトリック・プライバシ・エンハンスメント技術に対する攻撃を導入する。
プライバシーの強化を回避することができ、性別を最大90%の精度で正しく分類することができる。
論文 参考訳(メタデータ) (2021-11-24T10:41:15Z) - FedFace: Collaborative Learning of Face Recognition Model [66.84737075622421]
FedFaceは顔認識モデルの協調学習のためのフレームワークである。
各クライアントに格納された顔画像が、他のクライアントや中央ホストと共有されない、正確で汎用的な顔認識モデルを学ぶ。
コードとトレーニング済みモデルは公開される予定です。
論文 参考訳(メタデータ) (2021-04-07T09:25:32Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Real Time Face Recognition Using Convoluted Neural Networks [0.0]
畳み込みニューラルネットワークは顔認識に最適であることが証明されている。
データセットの作成は、認識される人の顔映像を何百もの人の画像に変換することで行われる。
論文 参考訳(メタデータ) (2020-10-09T12:04:49Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。