論文の概要: Does a Face Mask Protect my Privacy?: Deep Learning to Predict Protected
Attributes from Masked Face Images
- arxiv url: http://arxiv.org/abs/2112.07879v1
- Date: Wed, 15 Dec 2021 04:46:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 16:49:28.068661
- Title: Does a Face Mask Protect my Privacy?: Deep Learning to Predict Protected
Attributes from Masked Face Images
- Title(参考訳): マスクは私のプライバシーを守るのか?
マスク付き顔画像から保護属性を予測するディープラーニング
- Authors: Sachith Seneviratne, Nuran Kasthuriarachchi, Sanka Rasnayaka, Danula
Hettiachchi and Ridwan Shariffdeen
- Abstract要約: 我々は20,003個の合成マスク付き画像を持つResNet-50アーキテクチャに基づいてCNNを訓練・適用する。
マスク着用時のプライバシー侵害性には有意な差はない。
提案手法は,人工知能システムのプライバシー侵害性を評価するためのベースラインユーティリティとして機能する。
- 参考スコア(独自算出の注目度): 0.6562256987706128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contactless and efficient systems are implemented rapidly to advocate
preventive methods in the fight against the COVID-19 pandemic. Despite the
positive benefits of such systems, there is potential for exploitation by
invading user privacy. In this work, we analyse the privacy invasiveness of
face biometric systems by predicting privacy-sensitive soft-biometrics using
masked face images. We train and apply a CNN based on the ResNet-50
architecture with 20,003 synthetic masked images and measure the privacy
invasiveness. Despite the popular belief of the privacy benefits of wearing a
mask among people, we show that there is no significant difference to privacy
invasiveness when a mask is worn. In our experiments we were able to accurately
predict sex (94.7%),race (83.1%) and age (MAE 6.21 and RMSE 8.33) from masked
face images. Our proposed approach can serve as a baseline utility to evaluate
the privacy-invasiveness of artificial intelligence systems that make use of
privacy-sensitive information. We open-source all contributions for
re-producibility and broader use by the research community.
- Abstract(参考訳): 無接触で効率的なシステムは、新型コロナウイルスのパンデミックとの戦いの予防策を提唱するために急速に実装されている。
このようなシステムのプラスの利点にもかかわらず、ユーザーのプライバシーを侵害することで悪用される可能性がある。
本研究では,マスクされた顔画像を用いて,プライバシーに敏感な生体情報を予測することで,顔バイオメトリックシステムのプライバシー侵害性を分析する。
我々は,20,003個の合成マスク画像を用いたResNet-50アーキテクチャに基づくCNNのトレーニングと適用を行い,プライバシーの侵害性を測定する。
マスクを着用することによるプライバシー上のメリットは広く信じられているが,マスクを着用する場合のプライバシー侵害性には大きな違いはない。
実験では、マスク付き顔画像から性別(94.7%)、人種(83.1%)、年齢(mae 6.21およびrmse 8.33)を正確に予測することができた。
提案手法は,プライバシに敏感な情報を利用する人工知能システムのプライバシー侵害性を評価するためのベースラインユーティリティとして機能する。
我々は、再生産性と研究コミュニティによる幅広い利用に対するすべての貢献をオープンソースにしています。
関連論文リスト
- Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - FoggySight: A Scheme for Facial Lookup Privacy [8.19666118455293]
ソーシャルメディアにアップロードされる前に、相手の事例文献から学んだ教訓を適用して、プライバシー保護の方法で顔写真を修正するソリューションを提案し、評価します。
f foggysightの核となる機能はコミュニティ保護戦略であり、ユーザがプライバシーの保護者として行動することで、敵の機械学習アルゴリズムによって生成されたデコイ写真をアップロードする。
我々は、このスキームのさまざまな設定を調査し、未知の内部構造を持つ顔認識サービスを含む、顔のプライバシー保護を可能にすることを見出します。
論文 参考訳(メタデータ) (2020-12-15T19:57:18Z) - "Healthy surveillance": Designing a concept for privacy-preserving mask
recognition AI in the age of pandemics [1.1470070927586016]
2020年に新型コロナウイルスのパンデミックが発生した場合、多くの政府はマスクを着用するよう推奨したり、市民に勧めたりする。
マスク認識の大規模監視には、高性能な人工知能が必要である。
我々の概念的ディープラーニングに基づく人工知能は、プライバシーに優しい環境で95%から99%の検知性能を達成することができる。
論文 参考訳(メタデータ) (2020-10-20T14:00:04Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。