論文の概要: DeepBlur: A Simple and Effective Method for Natural Image Obfuscation
- arxiv url: http://arxiv.org/abs/2104.02655v1
- Date: Wed, 31 Mar 2021 19:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 00:16:14.237494
- Title: DeepBlur: A Simple and Effective Method for Natural Image Obfuscation
- Title(参考訳): DeepBlur: 自然画像の難読化をシンプルかつ効果的に行う方法
- Authors: Tao Li and Min Soo Choi
- Abstract要約: In this present DeepBlur, a simple yet effective method for image obfuscation by blurring in the Latent space of a unconditionally pre-trained generative model。
効率性や画質の面で既存の手法と比較し,最先端のディープラーニングモデルと産業製品とを比較した。
- 参考スコア(独自算出の注目度): 4.80165284612342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing privacy concern due to the popularity of social media and
surveillance systems, along with advances in face recognition software.
However, established image obfuscation techniques are either vulnerable to
re-identification attacks by human or deep learning models, insufficient in
preserving image fidelity, or too computationally intensive to be practical. To
tackle these issues, we present DeepBlur, a simple yet effective method for
image obfuscation by blurring in the latent space of an unconditionally
pre-trained generative model that is able to synthesize photo-realistic facial
images. We compare it with existing methods by efficiency and image quality,
and evaluate against both state-of-the-art deep learning models and industrial
products (e.g., Face++, Microsoft face service). Experiments show that our
method produces high quality outputs and is the strongest defense for most test
cases.
- Abstract(参考訳): ソーシャルメディアや監視システムの人気と顔認識ソフトウェアの進歩により、プライバシーの懸念が高まっている。
しかし、確立された画像難読化技術は、人間やディープラーニングモデルによる再同定攻撃に弱いか、画像の忠実性を維持するのに不十分か、計算量が多いため実用的ではない。
そこで本研究では,無条件に事前学習した生成モデルの潜在空間をぼかすことで,画像の難読化を簡易かつ効果的に行う手法であるdeepblurを提案する。
既存の手法と効率と画質で比較し、最先端のディープラーニングモデルと産業製品(face++、microsoft face serviceなど)の両方を評価します。
実験により,本手法は高品質なアウトプットを生成し,ほとんどのテストケースで最強の防御力を示す。
関連論文リスト
- Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - Building an Invisible Shield for Your Portrait against Deepfakes [34.65356811439098]
本稿では,画像のプロアクティブな保護を目的とした新しいフレームワーク,Integity Encryptorを提案する。
提案手法では,重要な顔属性と密接な関係を持つメッセージを,秘密に符号化する。
修正された顔属性は、デコードされたメッセージの比較を通じて、操作された画像を検出する手段として機能する。
論文 参考訳(メタデータ) (2023-05-22T10:01:28Z) - Face Morphing Attack Detection Using Privacy-Aware Training Data [0.991629944808926]
顔の形をした画像は、顔認識ベースのセキュリティシステムに深刻な脅威をもたらす。
現代の検出アルゴリズムは、実際の人物の認証画像を用いて、このような形態的攻撃を識別する。
このアプローチは、さまざまなプライバシー上の懸念を提起し、公開されているトレーニングデータの量を制限する。
論文 参考訳(メタデータ) (2022-07-02T19:00:48Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。