論文の概要: Vulnerability of Face Recognition Systems Against Composite Face
Reconstruction Attack
- arxiv url: http://arxiv.org/abs/2009.02286v1
- Date: Sun, 23 Aug 2020 03:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 02:36:54.250263
- Title: Vulnerability of Face Recognition Systems Against Composite Face
Reconstruction Attack
- Title(参考訳): 複合顔再建攻撃に対する顔認識システムの脆弱性
- Authors: Hadi Mansourifar, Weidong Shi
- Abstract要約: ラウンド信頼スコアは自明であるが、勾配降下画像再構成攻撃を阻止するためのシンプルで効果的な対策であると考えられる。
本稿では, 複合顔を用いた顔復元攻撃が, 丸め政策の非効率性を明らかにすることを実証する。
- 参考スコア(独自算出の注目度): 3.3707422585608953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rounding confidence score is considered trivial but a simple and effective
countermeasure to stop gradient descent based image reconstruction attacks.
However, its capability in the face of more sophisticated reconstruction
attacks is an uninvestigated research area. In this paper, we prove that, the
face reconstruction attacks based on composite faces can reveal the
inefficiency of rounding policy as countermeasure. We assume that, the attacker
takes advantage of face composite parts which helps the attacker to get access
to the most important features of the face or decompose it to the independent
segments. Afterwards, decomposed segments are exploited as search parameters to
create a search path to reconstruct optimal face. Face composition parts enable
the attacker to violate the privacy of face recognition models even with a
blind search. However, we assume that, the attacker may take advantage of
random search to reconstruct the target face faster. The algorithm is started
with random composition of face parts as initial face and confidence score is
considered as fitness value. Our experiments show that, since the rounding
policy as countermeasure can't stop the random search process, current face
recognition systems are extremely vulnerable against such sophisticated
attacks. To address this problem, we successfully test Face Detection Score
Filtering (FDSF) as a countermeasure to protect the privacy of training data
against proposed attack.
- Abstract(参考訳): 丸め信頼度スコアは自明であるが、勾配降下に基づく画像再構成攻撃を止めるための単純かつ効果的な対策である。
しかし、より洗練された再建攻撃に直面する能力は、実証されていない研究領域である。
本稿では,複合顔に基づく顔再建攻撃が,丸め方針の非効率性を対策として明らかにできることを示す。
攻撃者は顔の最も重要な特徴にアクセスしたり、独立したセグメントに分解したりするのに役立つ顔合成部品を利用する。
その後、分割されたセグメントを探索パラメータとして利用して最適な顔の再構成を行う。
顔合成部品は、ブラインド検索であっても、攻撃者は顔認識モデルのプライバシーを侵害することができる。
しかし,攻撃者は対象の顔の高速な再構築にランダム検索を活用できると考えられる。
アルゴリズムは、顔部品のランダムな構成を初期顔として開始し、信頼スコアを適合値とする。
提案手法は,ランダムな検索処理を防止できないため,現状の顔認識システムは,このような高度な攻撃に対して極めて脆弱であることを示す。
この問題に対処するため,提案した攻撃に対してトレーニングデータのプライバシーを保護するために,顔検出スコアフィルタリング(FDSF)を成功裏に検証した。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Assessing Privacy Risks from Feature Vector Reconstruction Attacks [24.262351521060676]
我々は、再構成された顔画像の脅威を有意義に捉える指標を開発する。
再構成された顔画像は、商業的な顔認識システムと人間の両方による再識別を可能にすることを示す。
その結果,特徴ベクトルはパーソナライズ可能な情報として認識されるべきであることが確認された。
論文 参考訳(メタデータ) (2022-02-11T16:52:02Z) - FaceGuard: A Self-Supervised Defense Against Adversarial Face Images [59.656264895721215]
我々は,多種多様な対向顔を自動的に検出し,局所化し,浄化する,新たな自己監督型対向防御フレームワークFaceGuardを提案する。
トレーニング中、FaceGuardは、困難で多様な敵攻撃を自動的に合成し、分類器が実際の顔と区別することを学ぶことができる。
LFWデータセットの実験結果から、FaceGuardは6つの未知の敵攻撃タイプに対して99.81%の精度で検出できることが示された。
論文 参考訳(メタデータ) (2020-11-28T21:18:46Z) - Black-Box Face Recovery from Identity Features [61.950765357647605]
我々はアルゴリズムをテストするために最先端の顔認識システム(ArcFace)を攻撃した。
我々のアルゴリズムは、最先端のソリューションに比べて、はるかに少ないクエリを必要とする。
論文 参考訳(メタデータ) (2020-07-27T15:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。