論文の概要: Real-World Adversarial Examples involving Makeup Application
- arxiv url: http://arxiv.org/abs/2109.03329v1
- Date: Sat, 4 Sep 2021 05:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:54:32.645005
- Title: Real-World Adversarial Examples involving Makeup Application
- Title(参考訳): メイクアップを取り入れた実世界の事例
- Authors: Chang-Sheng Lin, Chia-Yi Hsu, Pin-Yu Chen, Chia-Mu Yu
- Abstract要約: フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
- 参考スコア(独自算出の注目度): 58.731070632586594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have developed rapidly and have achieved outstanding
performance in several tasks, such as image classification and natural language
processing. However, recent studies have indicated that both digital and
physical adversarial examples can fool neural networks. Face-recognition
systems are used in various applications that involve security threats from
physical adversarial examples. Herein, we propose a physical adversarial attack
with the use of full-face makeup. The presence of makeup on the human face is a
reasonable possibility, which possibly increases the imperceptibility of
attacks. In our attack framework, we combine the cycle-adversarial generative
network (cycle-GAN) and a victimized classifier. The Cycle-GAN is used to
generate adversarial makeup, and the architecture of the victimized classifier
is VGG 16. Our experimental results show that our attack can effectively
overcome manual errors in makeup application, such as color and
position-related errors. We also demonstrate that the approaches used to train
the models can influence physical attacks; the adversarial perturbations
crafted from the pre-trained model are affected by the corresponding training
data.
- Abstract(参考訳): ディープニューラルネットワークは急速に発展し、画像分類や自然言語処理など、いくつかのタスクで優れたパフォーマンスを達成している。
しかし、近年の研究では、デジタルと物理の両方の敵の例がニューラルネットワークを騙すことが示されている。
顔認識システムは、物理的な敵からの脅威を含む様々なアプリケーションで使用される。
そこで本研究では,フルフェイスメイクを用いた物理的対人攻撃を提案する。
人間の顔に化粧があることは合理的な可能性であり、攻撃の不可避性を高める可能性がある。
攻撃枠組みでは,サイクル・アドバイサル・ジェネレーティブ・ネットワーク(サイクル・GAN)と被害者分類器を組み合わせる。
サイクルGANは対向化粧を生成するために使用され、犠牲者分類器のアーキテクチャはVGG16である。
実験の結果,色や位置関連誤差などのメークアップアプリケーションにおいて,手作業によるミスを効果的に克服できることがわかった。
また,モデル学習に用いたアプローチが物理的攻撃に影響を及ぼすことを実証し,事前学習したモデルから得られた逆摂動は対応するトレーニングデータに影響されることを示した。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Adv-Makeup: A New Imperceptible and Transferable Attack on Face
Recognition [20.34296242635234]
顔生成手法Adv-Makeupを提案します。
Adv-Makeupは、ブラックボックス設定下で知覚不能で移動可能な攻撃を実現できます。
ブラックボックス設定下での攻撃成功率を大幅に向上させ、商用システムも攻撃する。
論文 参考訳(メタデータ) (2021-05-07T11:00:35Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - Detection of Makeup Presentation Attacks based on Deep Face
Representations [16.44565034551196]
メークアップの応用は、いわゆるメイクアップ攻撃を開始するために悪用される。
化粧品の提示攻撃が顔認識システムのセキュリティに深刻な影響を及ぼす可能性が示唆された。
本稿では,実際の認証手法とメイクアップ攻撃を区別する攻撃検出手法を提案する。
論文 参考訳(メタデータ) (2020-06-09T06:53:58Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。