論文の概要: Oriole: Thwarting Privacy against Trustworthy Deep Learning Models
- arxiv url: http://arxiv.org/abs/2102.11502v1
- Date: Tue, 23 Feb 2021 05:33:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 13:52:05.485938
- Title: Oriole: Thwarting Privacy against Trustworthy Deep Learning Models
- Title(参考訳): Oriole: 信頼できるディープラーニングモデルに対するプライバシー侵害
- Authors: Liuqiao Chen, Hu Wang, Benjamin Zi Hao Zhao, Minhui Xue and Haifeng
Qian
- Abstract要約: 我々は,データ中毒攻撃と回避攻撃の利点を組み合わせたシステムであるオリオールを提案する。
提案するOrioleシステムでは,Fawkesシステムの性能を効果的に阻害し,有望な攻撃結果が得られる。
- 参考スコア(独自算出の注目度): 16.224149190291048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks have achieved unprecedented success in the field of face
recognition such that any individual can crawl the data of others from the
Internet without their explicit permission for the purpose of training
high-precision face recognition models, creating a serious violation of
privacy. Recently, a well-known system named Fawkes (published in USENIX
Security 2020) claimed this privacy threat can be neutralized by uploading
cloaked user images instead of their original images. In this paper, we present
Oriole, a system that combines the advantages of data poisoning attacks and
evasion attacks, to thwart the protection offered by Fawkes, by training the
attacker face recognition model with multi-cloaked images generated by Oriole.
Consequently, the face recognition accuracy of the attack model is maintained
and the weaknesses of Fawkes are revealed. Experimental results show that our
proposed Oriole system is able to effectively interfere with the performance of
the Fawkes system to achieve promising attacking results. Our ablation study
highlights multiple principal factors that affect the performance of the Oriole
system, including the DSSIM perturbation budget, the ratio of leaked clean user
images, and the numbers of multi-cloaks for each uncloaked image. We also
identify and discuss at length the vulnerabilities of Fawkes. We hope that the
new methodology presented in this paper will inform the security community of a
need to design more robust privacy-preserving deep learning models.
- Abstract(参考訳): ディープニューラルネットワークは、高精度顔認識モデルを訓練する目的で明示的な許可なしにインターネットから他人のデータをクロールすることができるように、顔認識の分野で前例のない成功を達成し、プライバシーの深刻な侵害を生み出しています。
最近、有名なシステムであるfawkes(usenix security 2020)は、このプライバシーの脅威は、オリジナルの画像の代わりにクロークされたユーザー画像をアップロードすることで、中立化できると主張した。
本稿では,データ中毒攻撃と回避攻撃の利点を組み合わせたシステムであるOrioleについて,攻撃者の顔認識モデルを,Orioleが生成したマルチクローズド画像でトレーニングすることにより,Fawkesの保護を阻止する。
これにより、攻撃モデルの顔認識精度が維持され、フェイクの弱点が明らかにされる。
実験の結果,提案するオリオール系はファウクスシステムの性能を効果的に阻害し,有望な攻撃結果を得ることができた。
本研究は,dssimの摂動予算,リークしたクリーンユーザ画像の比率,アンクローク画像毎のマルチクローク数など,オリオールシステムの性能に影響する複数の主要な要因を浮き彫りにしたものである。
また,fawkesの脆弱性を詳細に特定し,議論する。
本論文では,より堅牢なプライバシー保護深層学習モデルの設計の必要性について,セキュリティコミュニティに通知する。
関連論文リスト
- Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Face Anonymization by Manipulating Decoupled Identity Representation [5.26916168336451]
本稿では,顔画像の識別情報をわずかな修正で漏洩から保護する手法を提案する。
具体的には、生成的敵ネットワークの力を利用する他の顔属性と同一性表現を分離する。
モデルの不整合性を回避し、匿名性生成(AIG)を効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2021-05-24T07:39:54Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - Fawkes: Protecting Privacy against Unauthorized Deep Learning Models [34.04323550970413]
Fawkesは、個人が画像に無許可の顔認識モデルに接種するのを助けるシステムだ。
我々は、Fawkesがユーザー認識に対する95%以上の保護を提供していることを実験的に実証した。
私たちは、今日の最先端の顔認識サービスに対する実験で100%成功しました。
論文 参考訳(メタデータ) (2020-02-19T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。