論文の概要: Seeing is Living? Rethinking the Security of Facial Liveness
Verification in the Deepfake Era
- arxiv url: http://arxiv.org/abs/2202.10673v1
- Date: Tue, 22 Feb 2022 05:19:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 15:40:47.332652
- Title: Seeing is Living? Rethinking the Security of Facial Liveness
Verification in the Deepfake Era
- Title(参考訳): 生きていくのか?
ディープフェイク時代における顔の生体認証の安全性再考
- Authors: Changjiang Li, Li Wang, Shouling Ji, Xuhong Zhang, Zhaohan Xi,
Shanqing Guo, Ting Wang
- Abstract要約: 我々は、新しいディープフェイク・アタック・フレームワークであるLiveBuggerを紹介する。
LiveBuggerはカスタマイズ可能な自動セキュリティ評価を可能にする。
我々は、攻撃成功率を最大70%向上させる、カスタマイズされた2段階のアプローチを提案する。
- 参考スコア(独自算出の注目度): 44.59314850785345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial Liveness Verification (FLV) is widely used for identity authentication
in many security-sensitive domains and offered as Platform-as-a-Service (PaaS)
by leading cloud vendors. Yet, with the rapid advances in synthetic media
techniques (e.g., deepfake), the security of FLV is facing unprecedented
challenges, about which little is known thus far.
To bridge this gap, in this paper, we conduct the first systematic study on
the security of FLV in real-world settings. Specifically, we present
LiveBugger, a new deepfake-powered attack framework that enables customizable,
automated security evaluation of FLV. Leveraging LiveBugger, we perform a
comprehensive empirical assessment of representative FLV platforms, leading to
a set of interesting findings. For instance, most FLV APIs do not use
anti-deepfake detection; even for those with such defenses, their effectiveness
is concerning (e.g., it may detect high-quality synthesized videos but fail to
detect low-quality ones). We then conduct an in-depth analysis of the factors
impacting the attack performance of LiveBugger: a) the bias (e.g., gender or
race) in FLV can be exploited to select victims; b) adversarial training makes
deepfake more effective to bypass FLV; c) the input quality has a varying
influence on different deepfake techniques to bypass FLV. Based on these
findings, we propose a customized, two-stage approach that can boost the attack
success rate by up to 70%. Further, we run proof-of-concept attacks on several
representative applications of FLV (i.e., the clients of FLV APIs) to
illustrate the practical implications: due to the vulnerability of the APIs,
many downstream applications are vulnerable to deepfake. Finally, we discuss
potential countermeasures to improve the security of FLV. Our findings have
been confirmed by the corresponding vendors.
- Abstract(参考訳): Facial Liveness Verification (FLV)は多くのセキュリティに敏感なドメインでアイデンティティ認証に広く使われ、主要なクラウドベンダーによってPaaS(Platform-as-a-Service)として提供されている。
しかし、合成メディア技術(例えばディープフェイク)の急速な進歩により、FLVのセキュリティは前例のない課題に直面している。
本稿では,このギャップを埋めるために,実環境におけるFLVの安全性に関する最初の体系的研究を行う。
具体的には、FLVのカスタマイズ可能な自動セキュリティ評価を可能にする新しいディープフェイク攻撃フレームワークであるLiveBuggerを紹介する。
LiveBuggerを活用することで、代表的FLVプラットフォームの総合的な実証評価を行い、興味深い結果を得た。
例えば、ほとんどのFLV APIはアンチディープフェイク検出を使用せず、そのような防御を行う場合でも、その効果は関係している(例えば、高品質な合成ビデオを検出するが、低品質なビデオを検出することができない)。
次に、LiveBuggerの攻撃性能に影響を与える要因を詳細に分析する。
a) FLVの偏見(性別又は人種など)を被害者の選択に利用することができる。
ロ 逆行訓練により、FLVをバイパスすることがより効果的になる。
c)入力品質は、FLVをバイパスする異なるディープフェイク技術に様々な影響を及ぼす。
これらの結果に基づき,攻撃成功率を最大70%向上できるカスタマイズされた2段階アプローチを提案する。
さらに、flvの代表的なアプリケーション(つまり、flv apiのクライアント)で概念実証攻撃を実行し、実際的な意味を説明する: apiの脆弱性のため、多くの下流アプリケーションはdeepfakeに弱い。
最後に,FLVの安全性向上対策について検討する。
以上の結果が対応するベンダーによって確認された。
関連論文リスト
- F2A: An Innovative Approach for Prompt Injection by Utilizing Feign Security Detection Agents [0.0]
大規模言語モデルは、安全検出剤に対する盲目的な信頼を示す。
本論文は、F2A(Feign Agent Attack)と名づけられた攻撃を提案する。
実験には、偽の安全検出結果がプロンプトに注入される様々なシナリオが含まれていた。
論文 参考訳(メタデータ) (2024-10-11T12:49:05Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - AVA: Inconspicuous Attribute Variation-based Adversarial Attack
bypassing DeepFake Detection [9.40828913999459]
近年、DeepFakeアプリケーションの人気が高まっているが、その悪用は深刻なプライバシーの脅威をもたらす。
乱用問題を緩和するための最も関連する検出アルゴリズムは、本質的に敵の攻撃に対して脆弱である。
我々は,ガウス先行識別器と意味識別器の組み合わせにより,潜在空間を乱す属性可変型対向攻撃 (AVA) を新たに同定した。
論文 参考訳(メタデータ) (2023-12-14T06:25:56Z) - PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks [2.6487166137163007]
Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
論文 参考訳(メタデータ) (2023-12-02T06:34:37Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Efficient Video Action Detection with Token Dropout and Context
Refinement [67.10895416008911]
効率的なビデオアクション検出(ViT)のためのエンドツーエンドフレームワークを提案する。
ビデオクリップでは、他のフレームからのアクターの動きに関連するトークンを保存しながら、その視点でトークンを維持する。
第二に、残ったトークンを利用してシーンコンテキストを洗練し、アクターのアイデンティティをよりよく認識する。
論文 参考訳(メタデータ) (2023-04-17T17:21:21Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - BaFFLe: Backdoor detection via Feedback-based Federated Learning [3.6895394817068357]
フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
論文 参考訳(メタデータ) (2020-11-04T07:44:51Z) - Sharp Multiple Instance Learning for DeepFake Video Detection [54.12548421282696]
我々はDeepFakeビデオに、ビデオレベルのラベルのみを提供するが、フェイクビデオのすべての顔が操作されるわけではない部分的な顔攻撃という新しい問題を導入する。
インスタンス埋め込みからバッグ予測への直接マッピングを構築する鋭いMIL(S-MIL)を提案する。
FFPMSと広く使われているDFDCデータセットの実験により、S-MILは部分的に攻撃されたDeepFakeビデオ検出において他の手法よりも優れていることが確認された。
論文 参考訳(メタデータ) (2020-08-11T08:52:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。