論文の概要: Subverting Privacy-Preserving GANs: Hiding Secrets in Sanitized Images
- arxiv url: http://arxiv.org/abs/2009.09283v1
- Date: Sat, 19 Sep 2020 19:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 20:45:34.203236
- Title: Subverting Privacy-Preserving GANs: Hiding Secrets in Sanitized Images
- Title(参考訳): プライバシーを守るガンを潜伏させる: 画像に秘密を隠す
- Authors: Kang Liu, Benjamin Tan, Siddharth Garg
- Abstract要約: 最先端のアプローチでは、プライバシ保護による生成的敵ネットワーク(PP-GAN)を使用して、ユーザのアイデンティティを漏洩することなく、信頼できる表情認識を可能にする。
PP-GANの高感度化出力画像に機密識別データを隠蔽して後で抽出できることを示す。
- 参考スコア(独自算出の注目度): 13.690485523871855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unprecedented data collection and sharing have exacerbated privacy concerns
and led to increasing interest in privacy-preserving tools that remove
sensitive attributes from images while maintaining useful information for other
tasks. Currently, state-of-the-art approaches use privacy-preserving generative
adversarial networks (PP-GANs) for this purpose, for instance, to enable
reliable facial expression recognition without leaking users' identity.
However, PP-GANs do not offer formal proofs of privacy and instead rely on
experimentally measuring information leakage using classification accuracy on
the sensitive attributes of deep learning (DL)-based discriminators. In this
work, we question the rigor of such checks by subverting existing
privacy-preserving GANs for facial expression recognition. We show that it is
possible to hide the sensitive identification data in the sanitized output
images of such PP-GANs for later extraction, which can even allow for
reconstruction of the entire input images, while satisfying privacy checks. We
demonstrate our approach via a PP-GAN-based architecture and provide
qualitative and quantitative evaluations using two public datasets. Our
experimental results raise fundamental questions about the need for more
rigorous privacy checks of PP-GANs, and we provide insights into the social
impact of these.
- Abstract(参考訳): 前例のないデータ収集と共有は、プライバシーの懸念を悪化させ、画像から機密性の高い属性を取り除き、他のタスクに有用な情報を保持するプライバシ保存ツールへの関心を高めた。
現在、最先端のアプローチでは、例えば、ユーザの身元を漏らさずに、信頼できる表情認識を可能にするために、プライバシ保護生成敵ネットワーク(PP-GAN)を使用している。
しかし、PP-GANはプライバシの正式な証明を提供しておらず、代わりに、ディープラーニング(DL)ベースの識別器の機密属性の分類精度を用いて、情報漏洩を実験的に測定することに頼っている。
本研究では,既存の顔表情認識のためのプライバシー保護型GANを置き換えることにより,このようなチェックの厳密さを疑問視する。
このようなpp-ganのサニタイズされた出力画像に感度の高い識別データを隠して後で抽出することは可能であり、プライバシチェックを満たしながら入力画像全体を再構築することも可能である。
PP-GANアーキテクチャによるアプローチを実証し,2つの公開データセットを用いた質的,定量的評価を行った。
私たちの実験結果は、pp-gansのより厳密なプライバシーチェックの必要性に関する基本的な疑問を提起し、これらの社会的影響に対する洞察を提供する。
関連論文リスト
- SHAN: Object-Level Privacy Detection via Inference on Scene Heterogeneous Graph [5.050631286347773]
プライバシオブジェクト検出は、画像内のプライベートオブジェクトを正確に見つけることを目的としている。
既存の手法は、精度、一般化、解釈可能性の重大な欠陥に悩まされている。
本稿では、画像からシーン異質グラフを構成するモデルであるSHAN(Scene Heterogeneous Graph Attention Network)を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:32:14Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - PrivacyProber: Assessment and Detection of Soft-Biometric
Privacy-Enhancing Techniques [1.790445868185437]
そこで本研究では, バイオメトリック・プライバシ・エンハンシング技術を用いて, 回復の試みの信頼性について検討する。
プライバシ強化顔画像からソフトバイオメトリック情報を復元するための高レベルフレームワークであるPrivacyProberを提案する。
論文 参考訳(メタデータ) (2022-11-16T12:20:18Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - Unsupervised Enhancement of Soft-biometric Privacy with Negative Face
Recognition [13.555831336280407]
テンプレートレベルでのソフトバイオメトリック・プライバシを高める新しい顔認識手法である負顔認識(NFR)を提案する。
当社のアプローチでは、プライバシに敏感なラベルは必要とせず、事前定義された属性に限らず、より包括的なプライバシ保護を提供します。
論文 参考訳(メタデータ) (2020-02-21T08:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。