論文の概要: Fawkes: Protecting Privacy against Unauthorized Deep Learning Models
- arxiv url: http://arxiv.org/abs/2002.08327v2
- Date: Tue, 23 Jun 2020 03:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 12:50:10.013937
- Title: Fawkes: Protecting Privacy against Unauthorized Deep Learning Models
- Title(参考訳): Fawkes: 未承認のディープラーニングモデルに対するプライバシ保護
- Authors: Shawn Shan, Emily Wenger, Jiayun Zhang, Huiying Li, Haitao Zheng, Ben
Y. Zhao
- Abstract要約: Fawkesは、個人が画像に無許可の顔認識モデルに接種するのを助けるシステムだ。
我々は、Fawkesがユーザー認識に対する95%以上の保護を提供していることを実験的に実証した。
私たちは、今日の最先端の顔認識サービスに対する実験で100%成功しました。
- 参考スコア(独自算出の注目度): 34.04323550970413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today's proliferation of powerful facial recognition systems poses a real
threat to personal privacy. As Clearview.ai demonstrated, anyone can canvas the
Internet for data and train highly accurate facial recognition models of
individuals without their knowledge. We need tools to protect ourselves from
potential misuses of unauthorized facial recognition systems. Unfortunately, no
practical or effective solutions exist.
In this paper, we propose Fawkes, a system that helps individuals inoculate
their images against unauthorized facial recognition models. Fawkes achieves
this by helping users add imperceptible pixel-level changes (we call them
"cloaks") to their own photos before releasing them. When used to train facial
recognition models, these "cloaked" images produce functional models that
consistently cause normal images of the user to be misidentified. We
experimentally demonstrate that Fawkes provides 95+% protection against user
recognition regardless of how trackers train their models. Even when clean,
uncloaked images are "leaked" to the tracker and used for training, Fawkes can
still maintain an 80+% protection success rate. We achieve 100% success in
experiments against today's state-of-the-art facial recognition services.
Finally, we show that Fawkes is robust against a variety of countermeasures
that try to detect or disrupt image cloaks.
- Abstract(参考訳): 今日の強力な顔認識システムの普及は、個人のプライバシーを脅かしている。
clearview.aiが示したように、誰でもインターネットをキャンバスしてデータを集め、その知識なしに高精度な顔認識モデルを訓練できる。
不正な顔認識システムの誤用から身を守るためのツールが必要です。
残念ながら、実用的あるいは効果的な解決策は存在しない。
本稿では,未承認の顔認識モデルに対して画像の接種を支援するシステムであるFawkesを提案する。
Fawkesは、ユーザーが認識不能なピクセルレベルの変更(私たちはそれを「クローズ」と呼んでいる)を自分の写真に追加するのを助けることでこれを実現している。
顔認識モデルのトレーニングに使用すると、これらの「クローク」画像は、ユーザーの通常の画像を常に誤認させる機能モデルを生成する。
トラッカーのトレーニング方法に関わらず,Fawkesがユーザ認識に対して95%以上の保護を提供することを示す。
きれいでクローズドなイメージがトラッカーに"リード"されてトレーニングに使用されたとしても、Fawkesは80%以上の保護成功率を維持することができる。
我々は、現在の最先端の顔認識サービスに対する実験で100%成功した。
最後に,fawkesは画像クロークの検出や破壊を試みる様々な対策に対して頑健であることを示す。
関連論文リスト
- PuFace: Defending against Facial Cloaking Attacks for Facial Recognition Models [1.455585466338228]
最近提案された顔認識攻撃は、ユーザーが無許可の顔認識モデルで認識されるのを防ぐために、顔画像に目に見えない摂動(クローク)を付加する。
本稿では,ニューラルネットワークの一般化能力を活用してクロークの影響を低減した画像浄化システムであるPuFaceを紹介する。
我々の実証実験は、PuFaceが2つの最先端の顔認識攻撃に対して効果的に防御でき、攻撃の成功率を平均で69.84%から7.61%に下げることを示している。
論文 参考訳(メタデータ) (2024-06-04T12:19:09Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Does a Face Mask Protect my Privacy?: Deep Learning to Predict Protected
Attributes from Masked Face Images [0.6562256987706128]
我々は20,003個の合成マスク付き画像を持つResNet-50アーキテクチャに基づいてCNNを訓練・適用する。
マスク着用時のプライバシー侵害性には有意な差はない。
提案手法は,人工知能システムのプライバシー侵害性を評価するためのベースラインユーティリティとして機能する。
論文 参考訳(メタデータ) (2021-12-15T04:46:19Z) - Data Poisoning Won't Save You From Facial Recognition [1.14219428942199]
データ中毒は、Webスクラッド画像で訓練された顔認識モデルに対する説得力のある防御として提案されている。
この戦略がセキュリティの誤った感覚をもたらすことを実証する。
大規模顔認識に対する毒殺攻撃の2つのシステムについて検討した。
論文 参考訳(メタデータ) (2021-06-28T17:06:19Z) - Oriole: Thwarting Privacy against Trustworthy Deep Learning Models [16.224149190291048]
我々は,データ中毒攻撃と回避攻撃の利点を組み合わせたシステムであるオリオールを提案する。
提案するOrioleシステムでは,Fawkesシステムの性能を効果的に阻害し,有望な攻撃結果が得られる。
論文 参考訳(メタデータ) (2021-02-23T05:33:55Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。