論文の概要: StyleGAN as a Utility-Preserving Face De-identification Method
- arxiv url: http://arxiv.org/abs/2212.02611v2
- Date: Thu, 31 Aug 2023 17:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 21:09:49.383480
- Title: StyleGAN as a Utility-Preserving Face De-identification Method
- Title(参考訳): 実用性を保つ顔の識別方法としてのStyleGAN
- Authors: Seyyed Mohammad Sadegh Moosavi Khorzooghi and Shirin Nilizadeh
- Abstract要約: 顔の非識別法は写真の品質を低下させる可能性があり、通常は顔の有用性を保たない。
近年,現実的で高品質な仮想顔を生成する,StyleGAN などの GAN が提案されている。
本研究では, 顔検出, 検証, 識別攻撃を複数実施することにより, 実用性とプライバシを保護するための非識別手法を検討した。
- 参考スコア(独自算出の注目度): 2.1103399252177724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face de-identification methods have been proposed to preserve users' privacy
by obscuring their faces. These methods, however, can degrade the quality of
photos, and they usually do not preserve the utility of faces, i.e., their age,
gender, pose, and facial expression. Recently, GANs, such as StyleGAN, have
been proposed, which generate realistic, high-quality imaginary faces. In this
paper, we investigate the use of StyleGAN in generating de-identified faces
through style mixing. We examined this de-identification method for preserving
utility and privacy by implementing several face detection, verification, and
identification attacks and conducting a user study. The results from our
extensive experiments, human evaluation, and comparison with two
state-of-the-art methods, i.e., CIAGAN and DeepPrivacy, show that StyleGAN
performs on par or better than these methods, preserving users' privacy and
images' utility. In particular, the results of the machine learning-based
experiments show that StyleGAN0-4 preserves utility better than CIAGAN and
DeepPrivacy while preserving privacy at the same level. StyleGAN0-3 preserves
utility at the same level while providing more privacy. In this paper, for the
first time, we also performed a carefully designed user study to examine both
privacy and utility-preserving properties of StyleGAN0-3, 0-4, and 0-5, as well
as CIAGAN and DeepPrivacy from the human observers' perspectives. Our
statistical tests showed that participants tend to verify and identify
StyleGAN0-5 images more easily than DeepPrivacy images. All the methods but
StyleGAN0-5 had significantly lower identification rates than CIAGAN. Regarding
utility, as expected, StyleGAN0-5 performed significantly better in preserving
some attributes. Among all methods, on average, participants believe gender has
been preserved the most while naturalness has been preserved the least.
- Abstract(参考訳): 顔を隠蔽してユーザのプライバシーを守るために、顔の特定方法が提案されている。
しかし、これらの方法は写真の質を低下させ、通常、年齢、性別、ポーズ、表情といった顔の有用性を保たない。
近年,現実的で高品質な仮想顔を生成する,StyleGANなどのGANが提案されている。
本稿では,スタイルミキシングによる非識別顔の生成におけるStyleGANの使用について検討する。
本手法は,複数の顔検出,検証,識別攻撃を実行し,ユーザ調査を行い,有用性とプライバシを保護するための非識別手法である。
CIAGANとDeepPrivacyの2つの最先端手法との比較実験の結果、StyleGANはこれらの方法よりも同等以上のパフォーマンスを示し、ユーザのプライバシとイメージのユーティリティを保護している。
特に、機械学習ベースの実験の結果は、StyleGAN0-4がCIAGANやDeepPrivacyよりも有効性を保ちつつ、プライバシーを同じレベルで保持していることを示している。
StyleGAN0-3は、より多くのプライバシーを提供しながら、ユーティリティを同じレベルで保持する。
本稿では,今回初めて,stylegan0-3,0-4,0-5のプライバシおよびユーティリティ保存特性とciaganおよびdeepprivacyを人間の観察者の視点から検討するために,注意深く設計されたユーザ調査を行った。
実験の結果,深部プライバシー画像よりもstylegan0-5画像の検証と同定が容易であった。
いずれの方法もStyleGAN0-5はCIAGANよりも識別率が有意に低い。
実用性に関しては、予想通り、StyleGAN0-5はいくつかの属性の保存において大幅に改善された。
あらゆる方法の中で、参加者は、性別が最も多く保存されているのに対して、自然性が最低に保存されていると信じている。
関連論文リスト
- Face De-identification: State-of-the-art Methods and Comparative Studies [32.333766763819796]
顔の特定は、顔画像のプライバシーを保護する効果的な手段とみなされる。
本稿では,現在最先端の顔識別手法を,ピクセルレベル,表現レベル,意味レベルという3つのレベルに分類する。
論文 参考訳(メタデータ) (2024-11-15T01:00:00Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - PrivacyGAN: robust generative image privacy [0.0]
画像のユーザビリティを維持しながらプライバシを保護する新しいアプローチであるPrivacyGANを導入する。
Fawkesからインスピレーションを得たこの手法では、埋め込み空間内の元の画像をデコイ画像にシフトさせる。
本手法は未知の埋め込み転送シナリオにおいても有効であることを示す。
論文 参考訳(メタデータ) (2023-10-19T08:56:09Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - An Attack on Feature Level-based Facial Soft-biometric Privacy
Enhancement [13.780253190395715]
特徴レベルに基づく顔ソフトバイオメトリック・プライバシ・エンハンスメント技術に対する攻撃を導入する。
プライバシーの強化を回避することができ、性別を最大90%の精度で正しく分類することができる。
論文 参考訳(メタデータ) (2021-11-24T10:41:15Z) - Subverting Privacy-Preserving GANs: Hiding Secrets in Sanitized Images [13.690485523871855]
最先端のアプローチでは、プライバシ保護による生成的敵ネットワーク(PP-GAN)を使用して、ユーザのアイデンティティを漏洩することなく、信頼できる表情認識を可能にする。
PP-GANの高感度化出力画像に機密識別データを隠蔽して後で抽出できることを示す。
論文 参考訳(メタデータ) (2020-09-19T19:02:17Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。