論文の概要: Toward Face Biometric De-identification using Adversarial Examples
- arxiv url: http://arxiv.org/abs/2302.03657v1
- Date: Tue, 7 Feb 2023 18:17:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 15:20:44.035198
- Title: Toward Face Biometric De-identification using Adversarial Examples
- Title(参考訳): 対向例を用いた顔の生体認証化に向けて
- Authors: Mahdi Ghafourian, Julian Fierrez, Luis Felipe Gomez, Ruben
Vera-Rodriguez, Aythami Morales, Zohra Rezgui, Raymond Veldhuis
- Abstract要約: 顔認識は、特にソーシャルメディアにおけるインターネットユーザーのプライバシーを脅かしている。
本稿では、個人画像の識別に2つの広く知られている逆法を用いることの有効性を評価する。
- 参考スコア(独自算出の注目度): 12.990538405629453
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The remarkable success of face recognition (FR) has endangered the privacy of
internet users particularly in social media. Recently, researchers turned to
use adversarial examples as a countermeasure. In this paper, we assess the
effectiveness of using two widely known adversarial methods (BIM and ILLC) for
de-identifying personal images. We discovered, unlike previous claims in the
literature, that it is not easy to get a high protection success rate
(suppressing identification rate) with imperceptible adversarial perturbation
to the human visual system. Finally, we found out that the transferability of
adversarial examples is highly affected by the training parameters of the
network with which they are generated.
- Abstract(参考訳): 顔認識(FR)の成功は、特にソーシャルメディアにおけるインターネットユーザーのプライバシーを脅かしている。
近年、研究者は敵の例を対策として用いた。
本稿では,個人画像の識別に広く知られている2つの逆法(BIMとILLC)を用いることの有効性を評価する。
文献上, 従来の主張とは異なり, 人間の視覚系に対する対角的摂動による高い保護成功率(識別率の抑制)を得るのは容易ではないことがわかった。
最後に,攻撃例の転送性は,生成したネットワークのトレーニングパラメータに強く影響することが判明した。
関連論文リスト
- Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - Using a GAN to Generate Adversarial Examples to Facial Image Recognition [2.18624447693809]
ディープニューラルネットワークに基づく認識システムのための逆例を作成することができる。
本研究では、GAN(Generative Adversarial Network)を用いて、顔認識を騙すための敵対的な例を作成する。
以上の結果から, 得られたモデルのサイズを大幅に削減するために, 知識蒸留を応用できることが示唆された。
論文 参考訳(メタデータ) (2021-11-30T08:50:11Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Examining the Human Perceptibility of Black-Box Adversarial Attacks on
Face Recognition [14.557859576234621]
敵対的攻撃は、顔認識システムからユーザーのプライバシーを許可するための有望な方法だ。
我々は、$ell$ normや他の指標が、線形な方法で人間の知覚能力とどのように相関しないかを示す。
論文 参考訳(メタデータ) (2021-07-19T19:45:44Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。