論文の概要: Adv-Makeup: A New Imperceptible and Transferable Attack on Face
Recognition
- arxiv url: http://arxiv.org/abs/2105.03162v1
- Date: Fri, 7 May 2021 11:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:16:36.972346
- Title: Adv-Makeup: A New Imperceptible and Transferable Attack on Face
Recognition
- Title(参考訳): Adv-Makeup: 顔認識に対する新たな非知覚的かつ伝達可能な攻撃
- Authors: Bangjie Yin, Wenxuan Wang, Taiping Yao, Junfeng Guo, Zelun Kong,
Shouhong Ding, Jilin Li and Cong Liu
- Abstract要約: 顔生成手法Adv-Makeupを提案します。
Adv-Makeupは、ブラックボックス設定下で知覚不能で移動可能な攻撃を実現できます。
ブラックボックス設定下での攻撃成功率を大幅に向上させ、商用システムも攻撃する。
- 参考スコア(独自算出の注目度): 20.34296242635234
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks, particularly face recognition models, have been shown
to be vulnerable to both digital and physical adversarial examples. However,
existing adversarial examples against face recognition systems either lack
transferability to black-box models, or fail to be implemented in practice. In
this paper, we propose a unified adversarial face generation method -
Adv-Makeup, which can realize imperceptible and transferable attack under
black-box setting. Adv-Makeup develops a task-driven makeup generation method
with the blending module to synthesize imperceptible eye shadow over the
orbital region on faces. And to achieve transferability, Adv-Makeup implements
a fine-grained meta-learning adversarial attack strategy to learn more general
attack features from various models. Compared to existing techniques,
sufficient visualization results demonstrate that Adv-Makeup is capable to
generate much more imperceptible attacks under both digital and physical
scenarios. Meanwhile, extensive quantitative experiments show that Adv-Makeup
can significantly improve the attack success rate under black-box setting, even
attacking commercial systems.
- Abstract(参考訳): 深層ニューラルネットワーク、特に顔認識モデルは、デジタルと物理的な敵対的な例の両方に弱いことが示されている。
しかし、既存の顔認識システムに対する敵対的な例では、ブラックボックスモデルへの転送性を欠いたり、実際に実装しなかったりしている。
本稿では,ブラックボックス設定下での非知覚的かつ移動可能な攻撃を実現する,一元的対向顔生成手法Adv-Makeupを提案する。
adv-makeupは、顔の軌道領域上の不可避なアイシャドーを合成するブレンディングモジュールを備えたタスク駆動メイクアップ生成法を開発した。
また、転送性を達成するために、adv-makeupは、様々なモデルからより一般的な攻撃機能を学ぶために、きめ細かいメタラーニング攻撃戦略を実装している。
既存の技術と比較すると、十分な視覚化結果から、Adv-Makeupはデジタルシナリオと物理シナリオの両方で、はるかに非知覚的な攻撃を発生させることができる。
一方、大規模な定量的実験により、Adv-Makeupはブラックボックス設定下での攻撃成功率を大幅に改善し、商用システムへの攻撃も可能であることが示された。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - DiffAM: Diffusion-based Adversarial Makeup Transfer for Facial Privacy Protection [60.73609509756533]
DiffAMは、基準画像から対向的な化粧を施した高品質な顔画像を生成するための新しいアプローチである。
実験の結果、DiffAMはブラックボックス設定で12.98%上昇し、視覚的品質の向上と攻撃の成功率の向上を実現している。
論文 参考訳(メタデータ) (2024-05-16T08:05:36Z) - 3D-Aware Adversarial Makeup Generation for Facial Privacy Protection [23.915259014651337]
3DAM-GAN(3DAM-GAN)
新しいメイクアップ調整モジュール(MAM)とメイクアップ転送モジュール(MTM)で構成されるUVベースのジェネレータは、現実的で堅牢なメイクアップをレンダリングするために設計されている。
いくつかのベンチマークデータセットの実験結果は、3DAM-GANが様々なFRモデルに対して効果的に顔を保護することを示した。
論文 参考訳(メタデータ) (2023-06-26T12:27:59Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。