論文の概要: A Study of Face Obfuscation in ImageNet
- arxiv url: http://arxiv.org/abs/2103.06191v1
- Date: Wed, 10 Mar 2021 17:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:50:50.260087
- Title: A Study of Face Obfuscation in ImageNet
- Title(参考訳): ImageNetにおける顔難読化の検討
- Authors: Kaiyu Yang, Jacqueline Yau, Li Fei-Fei, Jia Deng, Olga Russakovsky
- Abstract要約: 本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人のカテゴリではありません。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
- 参考スコア(独自算出の注目度): 94.2949777826947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image obfuscation (blurring, mosaicing, etc.) is widely used for privacy
protection. However, computer vision research often overlooks privacy by
assuming access to original unobfuscated images. In this paper, we explore
image obfuscation in the ImageNet challenge.
Most categories in the ImageNet challenge are not people categories;
nevertheless, many incidental people are in the images, whose privacy is a
concern. We first annotate faces in the dataset. Then we investigate how face
blurring -- a typical obfuscation technique -- impacts classification accuracy.
We benchmark various deep neural networks on face-blurred images and observe a
disparate impact on different categories. Still, the overall accuracy only
drops slightly ($\leq 0.68\%$), demonstrating that we can train privacy-aware
visual classifiers with minimal impact on accuracy. Further, we experiment with
transfer learning to 4 downstream tasks: object recognition, scene recognition,
face attribute classification, and object detection. Results show that features
learned on face-blurred images are equally transferable. Data and code are
available at https://github.com/princetonvisualai/imagenet-face-obfuscation.
- Abstract(参考訳): 画像の難読化(ぼやけ、モザイクなど)
プライバシー保護に広く使われています
しかし、コンピュータビジョンの研究は、しばしばオリジナルの不明瞭な画像へのアクセスを仮定してプライバシーを無視する。
本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人々のカテゴリではありません。しかし、多くの偶発的な人々が画像の中にいます。
まずデータセットに面をアノテートします。
次に,典型的な難読化手法である顔のぼやけが分類精度に与える影響について検討する。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
それでも、全体的な精度はわずかに低下する($\leq 0.68\%$)。
さらに,オブジェクト認識,シーン認識,顔属性分類,オブジェクト検出という4つの下流タスクへの転送学習を実験した。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
データとコードはhttps://github.com/princetonvisualai/imagenet-face-obfuscationで入手できる。
関連論文リスト
- Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - Privacy-Preserving Face Recognition Using Trainable Feature Subtraction [40.47645421424354]
顔認識はプライバシーの懸念を増している。
本稿では,視覚障害と回復障害に対する顔画像保護について検討する。
我々は,この手法を新たなプライバシ保護顔認識手法であるMinusFaceに精錬する。
論文 参考訳(メタデータ) (2024-03-19T05:27:52Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - MorDeephy: Face Morphing Detection Via Fused Classification [0.0]
単一画像顔形態検出のための新しい深層学習手法を提案する。
深層顔の特徴を学習し、これらの特徴の真正性に関する情報を伝達する。
提案手法はMorDeephyと呼ばれ,その技術性能を達成し,未知のシナリオに変形検出を行うタスクを一般化する顕著な能力を示した。
論文 参考訳(メタデータ) (2022-08-05T11:39:22Z) - LFW-Beautified: A Dataset of Face Images with Beautification and
Augmented Reality Filters [53.180678723280145]
いくつかの操作を含む顔画像のデータベースにコントリビュートする。
画像強調フィルター(コントラストや稲妻を主に修正する)や、動物の鼻や眼鏡などのアイテムを組み込んだ拡張現実フィルターが含まれている。
各データセットには、64×64の4,324枚の画像があり、合計34,592枚の画像がある。
論文 参考訳(メタデータ) (2022-03-11T17:05:10Z) - DeepBlur: A Simple and Effective Method for Natural Image Obfuscation [4.80165284612342]
In this present DeepBlur, a simple yet effective method for image obfuscation by blurring in the Latent space of a unconditionally pre-trained generative model。
効率性や画質の面で既存の手法と比較し,最先端のディープラーニングモデルと産業製品とを比較した。
論文 参考訳(メタデータ) (2021-03-31T19:31:26Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - PrivacyNet: Semi-Adversarial Networks for Multi-attribute Face Privacy [15.301150389512744]
画像手法を用いて, 顔画像に対するソフトバイオメトリック・プライバシを実現する手法を開発した。
画像摂動は、GANをベースとしたSAN(Semi-Adversarial Network)を用いて行われる。
PrivacyNetでは、入力された顔画像に難読化される属性を選択することができる。
論文 参考訳(メタデータ) (2020-01-02T18:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。