論文の概要: A Master Key Backdoor for Universal Impersonation Attack against
DNN-based Face Verification
- arxiv url: http://arxiv.org/abs/2105.00249v1
- Date: Sat, 1 May 2021 13:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 07:03:47.374668
- Title: A Master Key Backdoor for Universal Impersonation Attack against
DNN-based Face Verification
- Title(参考訳): DNNによる顔認証に対するユニバーサル偽装攻撃のためのマスターキーバックドア
- Authors: Wei Guo, Benedetta Tondi and Mauro Barni
- Abstract要約: 我々はディープニューラルネットワーク(DNN)に基づく顔認証システムに対する新たな攻撃を導入する。
攻撃は隠れたバックドアのネットワークへの導入に依存し、テスト時のアクティベーションは、攻撃者が任意のユーザーを偽装できる検証エラーを誘導する。
本研究では,Siamese-DNN顔認証システムを対象とした攻撃を実用的に実施し,VGGFace2データセット上での学習とLFWおよびYTFデータセット上での試験時の有効性を示す。
- 参考スコア(独自算出の注目度): 33.415612094924654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new attack against face verification systems based on Deep
Neural Networks (DNN). The attack relies on the introduction into the network
of a hidden backdoor, whose activation at test time induces a verification
error allowing the attacker to impersonate any user. The new attack, named
Master Key backdoor attack, operates by interfering with the training phase, so
to instruct the DNN to always output a positive verification answer when the
face of the attacker is presented at its input. With respect to existing
attacks, the new backdoor attack offers much more flexibility, since the
attacker does not need to know the identity of the victim beforehand. In this
way, he can deploy a Universal Impersonation attack in an open-set framework,
allowing him to impersonate any enrolled users, even those that were not yet
enrolled in the system when the attack was conceived. We present a practical
implementation of the attack targeting a Siamese-DNN face verification system,
and show its effectiveness when the system is trained on VGGFace2 dataset and
tested on LFW and YTF datasets. According to our experiments, the Master Key
backdoor attack provides a high attack success rate even when the ratio of
poisoned training data is as small as 0.01, thus raising a new alarm regarding
the use of DNN-based face verification systems in security-critical
applications.
- Abstract(参考訳): 本稿では,Deep Neural Networks (DNN) に基づく顔認証システムに対する新たな攻撃を提案する。
攻撃は隠れたバックドアのネットワークへの導入に依存し、テスト時のアクティベーションは、攻撃者が任意のユーザーを偽装できる検証エラーを誘導する。
新たな攻撃はマスターキーバックドア攻撃と呼ばれ、トレーニングフェーズに干渉することで動作し、攻撃者の顔が入力時に常に肯定的な検証回答を出力するようにDNNに指示する。
既存の攻撃に関して、新たなバックドア攻撃は、攻撃者が被害者の身元を事前に知る必要がないため、はるかに柔軟性がある。
このようにして、彼はオープンセットのフレームワークにユニバーサル・インフォメーション・アタックを展開でき、攻撃が着想された時点でまだシステムに登録されていないユーザーでさえも、登録されたユーザーを偽装することができる。
本稿では,シームズ・DNN顔認証システムを対象とした攻撃の実践的実装について述べるとともに,VGGFace2データセットでトレーニングし,LFWおよびYTFデータセットでテストした場合の有効性を示す。
我々の実験によると、マスターキーのバックドア攻撃は、有毒なトレーニングデータの比率が0.01以下であっても高い攻撃成功率を示し、セキュリティクリティカルなアプリケーションにおけるDNNベースの顔認証システムの使用に関する新たなアラームを生じさせる。
関連論文リスト
- Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection [24.271795745084123]
ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
対象物検出タスクに対するバックドア攻撃は、適切に調査され、調査されていない。
そこで本研究では,オブジェクト検出に対して,接地真理アノテーションを変更することなく,簡易かつ効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-07-19T22:46:35Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Test-Time Detection of Backdoor Triggers for Poisoned Deep Neural
Networks [24.532269628999025]
深層ニューラルネットワーク(DNN)に対するバックドア(トロイの木馬)攻撃が出現
本稿では,画像分類に対するバックドア攻撃に対する「飛行中」防御法を提案する。
論文 参考訳(メタデータ) (2021-12-06T20:52:00Z) - An Overview of Backdoor Attacks Against Deep Neural Networks and
Possible Defences [33.415612094924654]
本研究の目的は,これまでに提案された攻撃・防衛の多種多様さを概観することである。
バックドア攻撃では、攻撃者はトレーニングデータを破損し、テスト時に誤動作を誘発する。
テストタイムエラーは、適切に作成された入力サンプルに対応するトリガーイベントの存在下でのみ起動される。
論文 参考訳(メタデータ) (2021-11-16T13:06:31Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Light Can Hack Your Face! Black-box Backdoor Attack on Face Recognition
Systems [0.0]
顔認識システムにおけるブラックボックスバックドア攻撃手法を提案する。
バックドアトリガは極めて効果的であり、攻撃成功率は最大で88%である。
本研究は,既存の顔認識/検証技術のセキュリティ問題に注意を喚起する,新たな物理的バックドア攻撃を明らかにしたことを強調した。
論文 参考訳(メタデータ) (2020-09-15T11:50:29Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。