論文の概要: Synthesizing Black-box Anti-forensics DeepFakes with High Visual Quality
- arxiv url: http://arxiv.org/abs/2312.10713v1
- Date: Sun, 17 Dec 2023 13:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 14:58:02.870441
- Title: Synthesizing Black-box Anti-forensics DeepFakes with High Visual Quality
- Title(参考訳): 視覚的品質の高いブラックボックス型アンチフォレンジクスディープフェイクの合成
- Authors: Bing Fan, Shu Hu, Feng Ding
- Abstract要約: そこで本研究では,ブラックボックス・アンチ・フォレスティクス・アタック(英語版)を起動するための新しい対向型シャープニングマスクを生成する手法を提案する。
提案手法が最先端のDeepFake検出器を破壊できることを示す。
既存のディープフェイク法で処理された画像と比較すると,提案法で作成したディープフェイクの視覚的特性は著しく改善されている。
- 参考スコア(独自算出の注目度): 11.496745237311456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DeepFake, an AI technology for creating facial forgeries, has garnered global
attention. Amid such circumstances, forensics researchers focus on developing
defensive algorithms to counter these threats. In contrast, there are
techniques developed for enhancing the aggressiveness of DeepFake, e.g.,
through anti-forensics attacks, to disrupt forensic detectors. However, such
attacks often sacrifice image visual quality for improved undetectability. To
address this issue, we propose a method to generate novel adversarial
sharpening masks for launching black-box anti-forensics attacks. Unlike many
existing arts, with such perturbations injected, DeepFakes could achieve high
anti-forensics performance while exhibiting pleasant sharpening visual effects.
After experimental evaluations, we prove that the proposed method could
successfully disrupt the state-of-the-art DeepFake detectors. Besides, compared
with the images processed by existing DeepFake anti-forensics methods, the
visual qualities of anti-forensics DeepFakes rendered by the proposed method
are significantly refined.
- Abstract(参考訳): 顔の偽造物を作るためのAI技術DeepFakeは、世界的に注目を集めている。
このような状況の中で、鑑識研究者はこれらの脅威に対抗する防御アルゴリズムの開発に集中している。
対照的に、ディープフェイクの攻撃性を高めるために、例えば、反フォレンス攻撃を通じて、法医学的検出器を破壊する技術が開発されている。
しかし、このような攻撃はしばしば画像の視覚品質を犠牲にして、検出不能性が向上する。
この問題に対処するために,ブラックボックス・アンチ・フォレンシック攻撃を行うための,新たな敵用シャープニングマスクの作成法を提案する。
このような摂動が注入された多くの既存の芸術とは異なり、ディープフェイクスは視覚効果を鮮明に保ちながら高い反法医学的パフォーマンスを達成できた。
実験結果から,提案手法が最先端のDeepFake検出器を破壊できることを示した。
また,既存のディープフェイク法で処理された画像と比較して,提案法で作成したディープフェイクの視覚的特性を著しく改善した。
関連論文リスト
- Active Fake: DeepFake Camouflage [11.976015496109525]
Face-Swap DeepFakeは、オリジナルの顔と合成顔とを交換することで振舞いを作る。
既存の法医学的手法は、主にディープニューラルネットワーク(DNN)に基づいており、これらの操作を効果的に公開し、重要な認証指標となっている。
混合不整合を発生し,不感,有効性,伝達性を確保したDeepFakeカモフラージュを作成するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T02:46:36Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - GazeForensics: DeepFake Detection via Gaze-guided Spatial Inconsistency
Learning [63.547321642941974]
本稿では,3次元視線推定モデルから得られた視線表現を利用する,革新的なDeepFake検出手法であるGazeForensicsを紹介する。
実験の結果,提案したGazeForensicsは現在の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-13T04:48:33Z) - On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models [0.5827521884806072]
我々は,最新の生成手法によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討した。
われわれの実験はFaceForensics++で行われている。
以上の結果から,ディープフェイクの再建過程において,1段階の偏微分拡散のみを用いることで,検出可能性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-11T15:57:51Z) - Attacking Image Splicing Detection and Localization Algorithms Using
Synthetic Traces [17.408491376238008]
近年のディープラーニングの進歩により、法医学研究者は画像スプライシング検出とローカライズアルゴリズムの新しいクラスを開発することができた。
これらのアルゴリズムは、シームズニューラルネットワークを用いて、法医学的トレースの局所的不整合を検出することによって、スプライシング内容を特定する。
本稿では,最先端のスプライシング検出とローカライズアルゴリズムを騙し得る新しいGANベースの反法医学的攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-22T15:07:16Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - DeepFake Detection with Inconsistent Head Poses: Reproducibility and
Analysis [0.0]
本稿では,ヘッドポーズ推定に基づく既存のDeepFake検出手法について分析する。
以上の結果から,DeepFake検出のためのアートパフォーマンスに対する現在の文献の認識を正すことができた。
論文 参考訳(メタデータ) (2021-08-28T22:56:09Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z) - Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing [61.82466976737915]
深層学習は、顔の反偽造の最も効果的な方法の1つとして証明されている。
2つの洞察に基づいて,複数フレームからの提示攻撃を検出する新しい手法を提案する。
提案手法は,5つのベンチマークデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-03-18T06:11:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。