論文の概要: Meaningful Adversarial Stickers for Face Recognition in Physical World
- arxiv url: http://arxiv.org/abs/2104.06728v1
- Date: Wed, 14 Apr 2021 09:32:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:17:57.288388
- Title: Meaningful Adversarial Stickers for Face Recognition in Physical World
- Title(参考訳): 実世界における顔認識のための有意義な対向ステッカー
- Authors: Ying Guo, Xingxing Wei, Guoqiu Wang, Bo Zhang
- Abstract要約: 顔認識(FR)システムは、深層学習の導入により、安全クリティカルな分野に広く応用されている。
本稿では,物理的に実現可能で容易に実装可能な攻撃方法であるMeaningful Adversarial Stickersを提案する。
攻撃者は、摂動パターンを設計する代わりに、顔のステッカーの貼り付けパラメータを操作し、既存のほとんどの作品のように印刷する。
- 参考スコア(独自算出の注目度): 10.51353187274547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition (FR) systems have been widely applied in safety-critical
fields with the introduction of deep learning. However, the existence of
adversarial examples brings potential security risks to FR systems. To identify
their vulnerability and help improve their robustness, in this paper, we
propose Meaningful Adversarial Stickers, a physically feasible and easily
implemented attack method by using meaningful real stickers existing in our
life, where the attackers manipulate the pasting parameters of stickers on the
face, instead of designing perturbation patterns and then printing them like
most existing works. We conduct attacks in the black-box setting with limited
information which is more challenging and practical. To effectively solve the
pasting position, rotation angle, and other parameters of the stickers, we
design Region based Heuristic Differential Algorithm, which utilizes the
inbreeding strategy based on regional aggregation of effective solutions and
the adaptive adjustment strategy of evaluation criteria. Extensive experiments
are conducted on two public datasets including LFW and CelebA with respective
to three representative FR models like FaceNet, SphereFace, and CosFace,
achieving attack success rates of 81.78%, 72.93%, and 79.26% respectively with
only hundreds of queries. The results in the physical world confirm the
effectiveness of our method in complex physical conditions. When continuously
changing the face posture of testers, the method can still perform successful
attacks up to 98.46%, 91.30% and 86.96% in the time series.
- Abstract(参考訳): 顔認識(FR)システムは、深層学習の導入により、安全クリティカルな分野に広く応用されている。
しかし、敵対的な例の存在はfrシステムに潜在的なセキュリティリスクをもたらす。
そこで本研究では,攻撃者が摂動パターンを設計して印刷する代わりに,顔に貼られたステッカーのペーストパラメータを操作するために,我々の生活に存在する有意義な実ステッカーを用いて,物理的に実現可能で容易に実装可能な攻撃方法である有意義な敵ステッカーを提案する。
我々は、より困難で実用的な限られた情報でブラックボックス設定で攻撃を行う。
ステッカーの貼付位置, 回転角, その他のパラメータを効果的に解くために, 有効解の局所的集約と評価基準の適応的調整戦略に基づく近交戦略を利用する領域ベースヒューリスティック微分アルゴリズムを設計した。
lfwとcelebaの2つのパブリックデータセットで、facenet、sphereface、cosfaceの3つの代表的なfrモデルを対象に、攻撃成功率81.78%、72.93%、79.26%をそれぞれ数百のクエリで達成した。
その結果, 複雑な物理条件下での本手法の有効性が確認できた。
テスタの顔の姿勢を継続的に変える際には、98.46%、91.30%、86.96%の攻撃を成功させることができる。
関連論文リスト
- ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches [4.4100683691177816]
敵対的攻撃は、機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
パッチベースの敵攻撃に対処するための総合的な防御戦略である外乱検出・次元削減(ODDR)を提案する。
提案手法は,逆パッチに対応する入力特徴を外れ値として同定できるという観測に基づいている。
論文 参考訳(メタデータ) (2023-11-20T11:08:06Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Simultaneously Optimizing Perturbations and Positions for Black-box
Adversarial Patch Attacks [13.19708582519833]
敵パッチは、ディープニューラルネットワークの堅牢性に重大なリスクをもたらす、現実世界の敵攻撃の重要な形態である。
従来の方法は、貼付位置を固定しながら摂動値を最適化するか、パッチの内容を修正しながら位置を操作することにより、敵パッチを生成する。
敵パッチの位置と摂動を同時に最適化し,ブラックボックス設定において高い攻撃成功率が得られる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-26T02:48:37Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - On the Effectiveness of Vision Transformers for Zero-shot Face
Anti-Spoofing [7.665392786787577]
本研究では、ゼロショットアンチスプーフィングタスクにおいて、視覚変換器モデルからの伝達学習を用いる。
提案手法は、HQ-WMCAおよびSiW-Mデータセットにおけるゼロショットプロトコルにおける最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-11-16T15:14:59Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。