論文の概要: Examining the Human Perceptibility of Black-Box Adversarial Attacks on
Face Recognition
- arxiv url: http://arxiv.org/abs/2107.09126v1
- Date: Mon, 19 Jul 2021 19:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 15:00:49.234424
- Title: Examining the Human Perceptibility of Black-Box Adversarial Attacks on
Face Recognition
- Title(参考訳): 顔認識におけるブラックボックス攻撃の知覚性の検討
- Authors: Benjamin Spetter-Goldstein, Nataniel Ruiz, Sarah Adel Bargal
- Abstract要約: 敵対的攻撃は、顔認識システムからユーザーのプライバシーを許可するための有望な方法だ。
我々は、$ell$ normや他の指標が、線形な方法で人間の知覚能力とどのように相関しないかを示す。
- 参考スコア(独自算出の注目度): 14.557859576234621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The modern open internet contains billions of public images of human faces
across the web, especially on social media websites used by half the world's
population. In this context, Face Recognition (FR) systems have the potential
to match faces to specific names and identities, creating glaring privacy
concerns. Adversarial attacks are a promising way to grant users privacy from
FR systems by disrupting their capability to recognize faces. Yet, such attacks
can be perceptible to human observers, especially under the more challenging
black-box threat model. In the literature, the justification for the
imperceptibility of such attacks hinges on bounding metrics such as $\ell_p$
norms. However, there is not much research on how these norms match up with
human perception. Through examining and measuring both the effectiveness of
recent black-box attacks in the face recognition setting and their
corresponding human perceptibility through survey data, we demonstrate the
trade-offs in perceptibility that occur as attacks become more aggressive. We
also show how the $\ell_2$ norm and other metrics do not correlate with human
perceptibility in a linear fashion, thus making these norms suboptimal at
measuring adversarial attack perceptibility.
- Abstract(参考訳): 現代のオープンインターネットは、ウェブ全体、特に世界の人口の半分が使っているソーシャルメディアのウェブサイトに何十億もの人間の顔を公開している。
この文脈では、顔認識(FR)システムは、顔と特定の名前や身元とを一致させる可能性があり、プライバシー上の懸念を生じさせる。
敵の攻撃は、顔を認識する能力を乱すことによって、frシステムからユーザーのプライバシーを付与する有望な方法である。
しかし、このような攻撃は人間の観察者、特により困難なブラックボックス脅威モデルの下では認識できる。
文献では、そのような攻撃の不可避性に対する正当化は、$\ell_p$ normsのような有界な指標に基づいている。
しかし、これらの規範が人間の知覚とどのように一致するかは、あまり研究されていない。
本研究では,最近の顔認識におけるブラックボックス攻撃の有効性と,それに対応する人間の知覚性について,サーベイデータを用いて検証・測定することで,攻撃がより攻撃的になるにつれて生じる知覚可能性のトレードオフを実証する。
また、$\ell_2$ のノルムやその他の指標が、線形な方法で人間の知覚性とどのように相関しないかを示す。
関連論文リスト
- Rethinking the Threat and Accessibility of Adversarial Attacks against Face Recognition Systems [13.830575255066773]
顔認識パイプラインは、信頼、公平、責任あるAIアプリケーションにおいてミッションクリティカルなシステムに広くデプロイされている。
敵の攻撃の出現は、認識パイプライン全体のセキュリティを脅かしている。
我々は,ブラックボックスの顔認識パイプラインに対して,AdvColorという,効果的かつ容易に起動可能な物理的敵攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-11T13:58:09Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Face Encryption via Frequency-Restricted Identity-Agnostic Attacks [25.198662208981467]
悪意あるコレクターは、生体情報を簡単に盗むためにディープフェイス認識システムを使用します。
非許可の顔認識から顔画像を暗号化するための周波数制限ID非依存(FRIA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-11T07:38:46Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Toward Face Biometric De-identification using Adversarial Examples [12.990538405629453]
顔認識は、特にソーシャルメディアにおけるインターネットユーザーのプライバシーを脅かしている。
本稿では、個人画像の識別に2つの広く知られている逆法を用いることの有効性を評価する。
論文 参考訳(メタデータ) (2023-02-07T18:17:41Z) - Is Face Recognition Safe from Realizable Attacks? [1.7214499647717132]
顔認識は生体認証の一般的な形態であり、広く使われているため、攻撃も一般的になっている。
近年の研究では、顔認識システムは攻撃に弱いことが示されており、顔の誤識別につながる可能性がある。
攻撃者は、微妙な摂動でリアルな合成顔画像を生成し、それを顔に物理的に認識し、ブラックボックスの顔認識システムに攻撃できる攻撃方式を提案する。
論文 参考訳(メタデータ) (2022-10-15T03:52:53Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Fairness Properties of Face Recognition and Obfuscation Systems [19.195705814819306]
顔難読化システムは、画像に追加されると知覚不能な摂動を生成し、顔認識システムがユーザを誤識別させる。
顔認識の文脈で不公平であることが知られているメートル法埋め込みネットワークに対する顔難読化のこのような依存は、人口統計学的公正性の問題を表面化させる。
グラフ埋め込みネットワークは人口統計学的に認識されており、それらの人口統計学的特性に基づいて埋め込み空間に顔をクラスタリングしている。
論文 参考訳(メタデータ) (2021-08-05T16:18:15Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。