論文の概要: Using a GAN to Generate Adversarial Examples to Facial Image Recognition
- arxiv url: http://arxiv.org/abs/2111.15213v1
- Date: Tue, 30 Nov 2021 08:50:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 23:38:58.504812
- Title: Using a GAN to Generate Adversarial Examples to Facial Image Recognition
- Title(参考訳): GANを用いた顔画像認識のための逆例生成
- Authors: Andrew Merrigan and Alan F. Smeaton
- Abstract要約: ディープニューラルネットワークに基づく認識システムのための逆例を作成することができる。
本研究では、GAN(Generative Adversarial Network)を用いて、顔認識を騙すための敵対的な例を作成する。
以上の結果から, 得られたモデルのサイズを大幅に削減するために, 知識蒸留を応用できることが示唆された。
- 参考スコア(独自算出の注目度): 2.18624447693809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Images posted online present a privacy concern in that they may be used as
reference examples for a facial recognition system. Such abuse of images is in
violation of privacy rights but is difficult to counter. It is well established
that adversarial example images can be created for recognition systems which
are based on deep neural networks. These adversarial examples can be used to
disrupt the utility of the images as reference examples or training data. In
this work we use a Generative Adversarial Network (GAN) to create adversarial
examples to deceive facial recognition and we achieve an acceptable success
rate in fooling the face recognition. Our results reduce the training time for
the GAN by removing the discriminator component. Furthermore, our results show
knowledge distillation can be employed to drastically reduce the size of the
resulting model without impacting performance indicating that our contribution
could run comfortably on a smartphone
- Abstract(参考訳): オンラインに投稿された画像には、顔認識システムの参照例として使用される可能性があるというプライバシー上の懸念がある。
このような画像の濫用はプライバシーの権利に反するものだが、対策は難しい。
深層ニューラルネットワークに基づく認識システムでは, 逆例画像が生成可能であることが確立されている。
これらの逆例は、参照例やトレーニングデータとしてのイメージの有用性を損なうために使用することができる。
本研究では,生成的敵ネットワーク(gan)を用いて,顔認識を欺く敵の例を作成し,顔認識を騙すことで許容できる成功率を達成する。
判別器成分を除去することにより, GANのトレーニング時間を短縮する。
さらに,本研究の結果から,スマートフォン上でのコントリビューションが快適に動作することを示す性能に影響を与えずに,結果モデルのサイズを大幅に削減できることを示す。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Privacy-Preserving Face Recognition Using Trainable Feature Subtraction [40.47645421424354]
顔認識はプライバシーの懸念を増している。
本稿では,視覚障害と回復障害に対する顔画像保護について検討する。
我々は,この手法を新たなプライバシ保護顔認識手法であるMinusFaceに精錬する。
論文 参考訳(メタデータ) (2024-03-19T05:27:52Z) - Privacy-Preserving Face Recognition Using Random Frequency Components [46.95003101593304]
顔認識によってプライバシーの懸念が高まっている。
人間の知覚可能な低周波成分を抽出することで視覚情報を隠蔽することを提案する。
得られた知見を,プライバシ保護のための新しい顔認識手法であるPartialFaceに抽出する。
論文 参考訳(メタデータ) (2023-08-21T04:31:02Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - FACE-AUDITOR: Data Auditing in Facial Recognition Systems [24.082527732931677]
顔画像を扱うスケーラビリティと能力のために、ショットベースの顔認識システムが注目されている。
顔画像の誤使用を防止するために、簡単なアプローチとして、生の顔画像を共有する前に修正する方法がある。
そこで本研究では,FACE-AUDITORの完全ツールキットを提案する。このツールキットは,少数ショットベースの顔認識モデルに問い合わせ,ユーザの顔画像のいずれかがモデルのトレーニングに使用されているかどうかを判断する。
論文 参考訳(メタデータ) (2023-04-05T23:03:54Z) - Toward Face Biometric De-identification using Adversarial Examples [12.990538405629453]
顔認識は、特にソーシャルメディアにおけるインターネットユーザーのプライバシーを脅かしている。
本稿では、個人画像の識別に2つの広く知られている逆法を用いることの有効性を評価する。
論文 参考訳(メタデータ) (2023-02-07T18:17:41Z) - Assessing Privacy Risks from Feature Vector Reconstruction Attacks [24.262351521060676]
我々は、再構成された顔画像の脅威を有意義に捉える指標を開発する。
再構成された顔画像は、商業的な顔認識システムと人間の両方による再識別を可能にすることを示す。
その結果,特徴ベクトルはパーソナライズ可能な情報として認識されるべきであることが確認された。
論文 参考訳(メタデータ) (2022-02-11T16:52:02Z) - On the Effect of Selfie Beautification Filters on Face Detection and
Recognition [53.561797148529664]
ソーシャルメディア画像フィルターは、例えば人工眼鏡や動物の鼻で、画像コントラスト、照明、あるいは顔の一部を妨げる。
U-NETセグメンテーションネットワークの修正版を用いて適用操作を再構築する手法を開発した。
認識の観点からは、顔を認識するために訓練されたResNet-34ネットワークを用いて抽出された特徴に対して、距離測定と訓練された機械学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2021-10-17T22:10:56Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Ulixes: Facial Recognition Privacy with Adversarial Machine Learning [5.665130648960062]
視覚的に非侵襲的な顔ノイズマスクを生成するためのUlixesを提案する。
これは、ユーザーがアンマスクされ、ラベル付き画像がオンラインで利用可能である場合でも適用できる。
論文 参考訳(メタデータ) (2020-10-20T13:05:51Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。