論文の概要: Am I a Real or Fake Celebrity? Measuring Commercial Face Recognition Web
APIs under Deepfake Impersonation Attack
- arxiv url: http://arxiv.org/abs/2103.00847v2
- Date: Tue, 2 Mar 2021 07:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:30:03.722496
- Title: Am I a Real or Fake Celebrity? Measuring Commercial Face Recognition Web
APIs under Deepfake Impersonation Attack
- Title(参考訳): 私は本物か偽のセレブか?
deepfake偽装攻撃下での顔認識ウェブapiの測定
- Authors: Shahroz Tariq, Sowon Jeon, Simon S. Woo
- Abstract要約: 人気企業の顔認識技術がDeepfake Impersonation(DI)攻撃にいかに脆弱であるかを実証します。
我々は、ターゲット(正確に一致)と非ターゲット(有名人と一致)の攻撃に対して、78.0%と99.9%の最大成功率を達成する。
- 参考スコア(独自算出の注目度): 17.97648576135166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, significant advancements have been made in face recognition
technologies using Deep Neural Networks. As a result, companies such as
Microsoft, Amazon, and Naver offer highly accurate commercial face recognition
web services for diverse applications to meet the end-user needs. Naturally,
however, such technologies are threatened persistently, as virtually any
individual can quickly implement impersonation attacks. In particular, these
attacks can be a significant threat for authentication and identification
services, which heavily rely on their underlying face recognition technologies'
accuracy and robustness. Despite its gravity, the issue regarding deepfake
abuse using commercial web APIs and their robustness has not yet been
thoroughly investigated. This work provides a measurement study on the
robustness of black-box commercial face recognition APIs against Deepfake
Impersonation (DI) attacks using celebrity recognition APIs as an example case
study. We use five deepfake datasets, two of which are created by us and
planned to be released. More specifically, we measure attack performance based
on two scenarios (targeted and non-targeted) and further analyze the differing
system behaviors using fidelity, confidence, and similarity metrics.
Accordingly, we demonstrate how vulnerable face recognition technologies from
popular companies are to DI attack, achieving maximum success rates of 78.0%
and 99.9% for targeted (i.e., precise match) and non-targeted (i.e., match with
any celebrity) attacks, respectively. Moreover, we propose practical defense
strategies to mitigate DI attacks, reducing the attack success rates to as low
as 0% and 0.02% for targeted and non-targeted attacks, respectively.
- Abstract(参考訳): 近年,ディープニューラルネットワークを用いた顔認識技術が進歩している。
その結果、Microsoft、Amazon、Naverなどの企業は、エンドユーザーのニーズを満たすために、さまざまなアプリケーション向けに高精度な商用顔認識Webサービスを提供しています。
しかしながら、このような技術は、事実上すべての個人が迅速に偽造攻撃を実施できるため、永続的に脅威にさらされている。
特に、これらの攻撃は認証および識別サービスにとって重大な脅威となり、顔認識技術の精度と堅牢性に大きく依存します。
その重力にもかかわらず、商用Web APIを用いたディープフェイクの悪用とその堅牢性に関する問題は、まだ十分に調査されていない。
本研究では,セレブリティ認識APIを用いたDeepfake Impersonation (DI)攻撃に対するブラックボックス商用顔認識APIの堅牢性に関する測定研究を事例として紹介する。
5つのディープフェイクデータセットを使用します。そのうち2つは私たちによって作成され、リリースされる予定です。
より具体的には,2つのシナリオ(ターゲットと非ターゲット)に基づいて攻撃性能を測定し,忠実度,信頼度,類似度指標を用いてシステムの挙動をさらに分析する。
したがって、人気企業の顔認識技術がDI攻撃にいかに脆弱であるかを実証し、ターゲット(すなわち正確なマッチング)と非ターゲット(すなわちセレブと一致する)攻撃の最大成功率78.0%と99.9%を達成した。
また、標的攻撃と非標的攻撃の攻撃成功率を0%と0.02%に低下させ、DI攻撃を緩和するための実用的防御戦略を提案します。
関連論文リスト
- Rethinking the Threat and Accessibility of Adversarial Attacks against Face Recognition Systems [13.830575255066773]
顔認識パイプラインは、信頼、公平、責任あるAIアプリケーションにおいてミッションクリティカルなシステムに広くデプロイされている。
敵の攻撃の出現は、認識パイプライン全体のセキュリティを脅かしている。
我々は,ブラックボックスの顔認識パイプラインに対して,AdvColorという,効果的かつ容易に起動可能な物理的敵攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-11T13:58:09Z) - SENet: Visual Detection of Online Social Engineering Attack Campaigns [3.858859576352153]
ソーシャルエンジニアリング(SE)は、ユーザのセキュリティとプライバシを侵害する可能性のあるアクションの実行をユーザを欺くことを目的としている。
SEShieldは、ブラウザ内でソーシャルエンジニアリング攻撃を検出するためのフレームワークである。
論文 参考訳(メタデータ) (2024-01-10T22:25:44Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - SqueezerFaceNet: Reducing a Small Face Recognition CNN Even More Via
Filter Pruning [55.84746218227712]
我々は,100万パラメータ未満の軽量顔認識ネットワークであるSqueezerFaceNetを開発した。
性能を損なうことなく、さらに(最大40%)削減できることを示す。
論文 参考訳(メタデータ) (2023-07-20T08:38:50Z) - Digital and Physical Face Attacks: Reviewing and One Step Further [31.780516471483985]
顔提示攻撃(FPA)は、不信感を強く訴えている。
物理的な顔攻撃に加えて、顔のビデオや画像は、悪意のあるハッカーが立ち上げた様々なデジタル攻撃技術に弱い。
本調査は,既存の文献を網羅的に分析し,さらなる注意を要する課題を明らかにすることにより,顔鑑定の整合性を高めることを目的とする。
論文 参考訳(メタデータ) (2022-09-29T11:25:52Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - LowKey: Leveraging Adversarial Attacks to Protect Social Media Users
from Facial Recognition [46.610361721000444]
我々は、画像処理パイプライン全体に対応する独自の逆フィルターを開発する。
Amazon RekognitionとMicrosoft Azure Face Recognition APIの精度を大幅に低下させる、使いやすいWebツールをリリースします。
論文 参考訳(メタデータ) (2021-01-20T01:40:06Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。