論文の概要: Landmark Breaker: Obstructing DeepFake By Disturbing Landmark Extraction
- arxiv url: http://arxiv.org/abs/2102.00798v1
- Date: Mon, 1 Feb 2021 12:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:28:01.482265
- Title: Landmark Breaker: Obstructing DeepFake By Disturbing Landmark Extraction
- Title(参考訳): Landmark Breaker: ランドマークの抽出を乱してDeepFakeを妨害する
- Authors: Pu Sun, Yuezun Li, Honggang Qi and Siwei Lyu
- Abstract要約: ランドマークブレーカー(Landmark Breaker)は、顔のランドマーク抽出を妨害する最初の専用手法である。
私たちのモチベーションは、顔のランドマーク抽出を乱すことが、DeepFakeの品質を劣化させるために、入力顔のアライメントに影響を与えることです。
DeepFake生成後にのみ動作する検出方法と比較して、Landmark BreakerはDeepFake生成を防ぐために一歩前進する。
- 参考スコア(独自算出の注目度): 40.71503677067645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent development of Deep Neural Networks (DNN) has significantly
increased the realism of AI-synthesized faces, with the most notable examples
being the DeepFakes. The DeepFake technology can synthesize a face of target
subject from a face of another subject, while retains the same face attributes.
With the rapidly increased social media portals (Facebook, Instagram, etc),
these realistic fake faces rapidly spread though the Internet, causing a broad
negative impact to the society. In this paper, we describe Landmark Breaker,
the first dedicated method to disrupt facial landmark extraction, and apply it
to the obstruction of the generation of DeepFake videos.Our motivation is that
disrupting the facial landmark extraction can affect the alignment of input
face so as to degrade the DeepFake quality. Our method is achieved using
adversarial perturbations. Compared to the detection methods that only work
after DeepFake generation, Landmark Breaker goes one step ahead to prevent
DeepFake generation. The experiments are conducted on three state-of-the-art
facial landmark extractors using the recent Celeb-DF dataset.
- Abstract(参考訳): 最近のDeep Neural Networks(DNN)の開発により、AI合成顔のリアリズムが大幅に向上し、最も注目すべき例はDeepFakesです。
ディープフェイク技術は、同じ顔属性を保持しながら、他の被験者の顔から対象の顔を合成することができる。
ソーシャルメディアのポータル(Facebook、Instagramなど)が急速に増加し、こうした現実的な偽の顔はインターネット上で急速に広まり、社会に悪影響を及ぼした。
本稿では,顔のランドマーク抽出を阻害する最初の専用手法であるランドマークブレーカーについて説明し,DeepFakeビデオ生成の妨害に応用し,DeepFake品質を低下させるために,顔のランドマーク抽出が入力面のアライメントに影響を与える可能性があることを動機とする。
本手法は逆摂動を用いて達成する。
DeepFake生成後にのみ動作する検出方法と比較して、Landmark BreakerはDeepFake生成を防ぐために一歩前進する。
最近のceleb-dfデータセットを用いた3つの最先端顔ランドマーク抽出装置について実験を行った。
関連論文リスト
- DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - DeepFakes: Detecting Forged and Synthetic Media Content Using Machine
Learning [18.623444153774948]
この研究は、DeepFakeの生成と検出技術に関連する課題、研究動向、方向性を提示する。
この研究は、DeepFakeドメインにおける注目すべき研究をレビューし、今後より進歩したDeepFakeに対応する、より堅牢なアプローチの開発を促進する。
論文 参考訳(メタデータ) (2021-09-07T05:19:36Z) - End2End Occluded Face Recognition by Masking Corrupted Features [82.27588990277192]
最先端の一般的な顔認識モデルは、隠蔽された顔画像に対してうまく一般化しない。
本稿では,1つのエンドツーエンドのディープニューラルネットワークに基づいて,オクルージョンに頑健な新しい顔認識手法を提案する。
我々のアプローチは、深い畳み込みニューラルネットワークから破損した特徴を発見し、動的に学習されたマスクによってそれらをきれいにする。
論文 参考訳(メタデータ) (2021-08-21T09:08:41Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - Countering Malicious DeepFakes: Survey, Battleground, and Horizon [17.153920019319603]
DeepFakeと呼ばれる深い生成的アプローチによる顔の外観の作成と操作は、大きな進歩を遂げました。
この新しい技術の邪悪な側面は、別の一般的な研究、すなわち本物のものから偽の顔を識別することを目的としたDeepFake検出を提示します。
コミュニティにおけるDeepFake関連の研究の急速な発展に伴い、双方(すなわちDeepFakeの生成と検出)は戦場の関係を形成している。
論文 参考訳(メタデータ) (2021-02-27T13:48:54Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z) - Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces [36.87244915810356]
Deepfakeは、機械学習モデルを活用するフェイススワッピング攻撃のカテゴリである。
本稿では,Deepfake攻撃に対する防御手段として,逆向きに乱れする新しい変形認識顔を提案する。
また, アンサンブルをベースとしたアプローチを用いて, GANベースのディープフェイク型に対する防御ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2020-06-12T18:51:57Z) - Preliminary Forensics Analysis of DeepFake Images [0.0]
DeepFakeは、ディープラーニングに基づくアルゴリズムを活用することで、画像やビデオの人物の顔を自動的に置き換えることが可能になる。
本稿では,顔のディープフェイク画像を生成する技術の概要を紹介する。
標準手法によるこれらの画像の法医学的分析について述べる。
顔のディープフェイク画像と戦うための予備的なアイデアが提示される。
論文 参考訳(メタデータ) (2020-04-27T08:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。