論文の概要: Hiding Faces in Plain Sight: Defending DeepFakes by Disrupting Face Detection
- arxiv url: http://arxiv.org/abs/2412.01101v1
- Date: Mon, 02 Dec 2024 04:17:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:19.401220
- Title: Hiding Faces in Plain Sight: Defending DeepFakes by Disrupting Face Detection
- Title(参考訳): 顔検出でディープフェイクを防げる
- Authors: Delong Zhu, Yuezun Li, Baoyuan Wu, Jiaran Zhou, Zhibo Wang, Siwei Lyu,
- Abstract要約: 本稿では,プロアクティブなディープフェイク防衛フレームワークであるエム・フェイスポージョンの有効性について検討し,個人がディープフェイクビデオの被害者にならないようにした。
FacePoisonをベースとしたEm VideoFacePoisonは、各フレームに個別に適用するのではなく、ビデオフレーム間でFacePoisonを伝搬する戦略である。
本手法は5つの顔検出器で検証され,11種類のDeepFakeモデルに対する広範な実験により,顔検出器を破壊してDeepFakeの発生を妨げる効果が示された。
- 参考スコア(独自算出の注目度): 56.289631511616975
- License:
- Abstract: This paper investigates the feasibility of a proactive DeepFake defense framework, {\em FacePosion}, to prevent individuals from becoming victims of DeepFake videos by sabotaging face detection. The motivation stems from the reliance of most DeepFake methods on face detectors to automatically extract victim faces from videos for training or synthesis (testing). Once the face detectors malfunction, the extracted faces will be distorted or incorrect, subsequently disrupting the training or synthesis of the DeepFake model. To achieve this, we adapt various adversarial attacks with a dedicated design for this purpose and thoroughly analyze their feasibility. Based on FacePoison, we introduce {\em VideoFacePoison}, a strategy that propagates FacePoison across video frames rather than applying them individually to each frame. This strategy can largely reduce the computational overhead while retaining the favorable attack performance. Our method is validated on five face detectors, and extensive experiments against eleven different DeepFake models demonstrate the effectiveness of disrupting face detectors to hinder DeepFake generation.
- Abstract(参考訳): 本稿では,DeepFakeビデオの個人が顔検出を妨害することにより,個人がDeepFakeビデオの被害者になるのを防ぐための,プロアクティブなDeepFake防衛フレームワーク {\em FacePosion} の実現可能性について検討する。
この動機は、ディープフェイク法の大部分を顔検知器に頼って、訓練や合成(テスト)のためにビデオから被害者の顔を自動的に抽出することにある。
顔検出装置が故障すると、抽出された顔は歪んだり間違っていたりし、その後DeepFakeモデルの訓練や合成を中断する。
これを実現するために,本設計で様々な敵攻撃を適応し,その実現可能性について徹底的に分析する。
FacePoisonは、各フレームに個別に適用するのではなく、ビデオフレーム間でFacePoisonを伝播させる戦略である。
この戦略は、良好な攻撃性能を維持しながら、計算オーバーヘッドを大幅に削減することができる。
本手法は5つの顔検出器で検証され,11種類のDeepFakeモデルに対する広範な実験により,顔検出器を破壊してDeepFakeの発生を妨げる効果が示された。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training [36.158715089667034]
Face-swap DeepFakeは、AIベースの顔偽造技術だ。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を引き起こす可能性がある。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
論文 参考訳(メタデータ) (2023-07-27T02:36:13Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Landmark Breaker: Obstructing DeepFake By Disturbing Landmark Extraction [40.71503677067645]
ランドマークブレーカー(Landmark Breaker)は、顔のランドマーク抽出を妨害する最初の専用手法である。
私たちのモチベーションは、顔のランドマーク抽出を乱すことが、DeepFakeの品質を劣化させるために、入力顔のアライメントに影響を与えることです。
DeepFake生成後にのみ動作する検出方法と比較して、Landmark BreakerはDeepFake生成を防ぐために一歩前進する。
論文 参考訳(メタデータ) (2021-02-01T12:27:08Z) - Vulnerability of Face Recognition Systems Against Composite Face
Reconstruction Attack [3.3707422585608953]
ラウンド信頼スコアは自明であるが、勾配降下画像再構成攻撃を阻止するためのシンプルで効果的な対策であると考えられる。
本稿では, 複合顔を用いた顔復元攻撃が, 丸め政策の非効率性を明らかにすることを実証する。
論文 参考訳(メタデータ) (2020-08-23T03:37:51Z) - Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces [36.87244915810356]
Deepfakeは、機械学習モデルを活用するフェイススワッピング攻撃のカテゴリである。
本稿では,Deepfake攻撃に対する防御手段として,逆向きに乱れする新しい変形認識顔を提案する。
また, アンサンブルをベースとしたアプローチを用いて, GANベースのディープフェイク型に対する防御ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2020-06-12T18:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。