論文の概要: Adversarial Privacy-preserving Filter
- arxiv url: http://arxiv.org/abs/2007.12861v2
- Date: Tue, 4 Aug 2020 05:12:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 01:27:43.742850
- Title: Adversarial Privacy-preserving Filter
- Title(参考訳): 対訳 プライバシー保護フィルタ
- Authors: Jiaming Zhang, Jitao Sang, Xian Zhao, Xiaowen Huang, Yanfeng Sun,
Yongli Hu
- Abstract要約: 顔認識は、悪意のある顔画像の使用と潜在的なプライバシー問題に関して批判的に議論されてきた。
オンライン写真共有サービスは、悪意のあるクローラと顔認識アプリケーションのメインリポジトリとして意図せずに機能する。
この研究は、Adversarial Privacy-Preserving Filter(APF)と呼ばれるプライバシ保護ソリューションを開発し、オンラインの共有顔画像が悪用されるのを防ぐことを目的としている。
- 参考スコア(独自算出の注目度): 33.957912657446485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While widely adopted in practical applications, face recognition has been
critically discussed regarding the malicious use of face images and the
potential privacy problems, e.g., deceiving payment system and causing personal
sabotage. Online photo sharing services unintentionally act as the main
repository for malicious crawler and face recognition applications. This work
aims to develop a privacy-preserving solution, called Adversarial
Privacy-preserving Filter (APF), to protect the online shared face images from
being maliciously used.We propose an end-cloud collaborated adversarial attack
solution to satisfy requirements of privacy, utility and nonaccessibility.
Specifically, the solutions consist of three modules: (1) image-specific
gradient generation, to extract image-specific gradient in the user end with a
compressed probe model; (2) adversarial gradient transfer, to fine-tune the
image-specific gradient in the server cloud; and (3) universal adversarial
perturbation enhancement, to append image-independent perturbation to derive
the final adversarial noise. Extensive experiments on three datasets validate
the effectiveness and efficiency of the proposed solution. A prototype
application is also released for further evaluation.We hope the end-cloud
collaborated attack framework could shed light on addressing the issue of
online multimedia sharing privacy-preserving issues from user side.
- Abstract(参考訳): 実用的なアプリケーションでは広く採用されているが、顔認識は、顔画像の悪質な利用と潜在的なプライバシー問題、例えば支払いシステムを欺き、個人的妨害を引き起こすことについて批判的に議論されている。
オンライン写真共有サービスは意図せず、悪意のあるクローラや顔認識アプリケーションのメインリポジトリとして機能する。
本研究は,オンライン共有顔画像の悪意ある使用を防止するために,Adversarial Privacy-Preserving Filter(APF)と呼ばれるプライバシ保護ソリューションを開発することを目的としている。
具体的には、(1)画像特異的勾配生成、(2)圧縮プローブモデルによるユーザエンドの画像特異的勾配抽出、(2)サーバクラウド内の画像特異的勾配を微調整する逆勾配伝達、(3)普遍逆摂動強調、(3)画像非依存摂動を付加して最終的な逆雑音を導出する3つのモジュールからなる。
3つのデータセットに対する大規模な実験により、提案手法の有効性と効率が検証された。
プロトタイプアプリケーションもさらなる評価のためにリリースされ、エンドクラウドの共同攻撃フレームワークが、オンラインマルチメディア共有プライバシ保護の問題にユーザー側から対処することを願っている。
関連論文リスト
- Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - LDP-Feat: Image Features with Local Differential Privacy [10.306943706927006]
埋め込みから元の画像の特徴を復元できることを示すために,2つの新しい反転攻撃を提案する。
本稿では,画像特徴を局所的な差分プライバシーによって民営化する最初の手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T06:28:55Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。