論文の概要: Landmark Breaker: Obstructing DeepFake By Disturbing Landmark Extraction
- arxiv url: http://arxiv.org/abs/2102.00798v1
- Date: Mon, 1 Feb 2021 12:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:28:01.482265
- Title: Landmark Breaker: Obstructing DeepFake By Disturbing Landmark Extraction
- Title(参考訳): Landmark Breaker: ランドマークの抽出を乱してDeepFakeを妨害する
- Authors: Pu Sun, Yuezun Li, Honggang Qi and Siwei Lyu
- Abstract要約: ランドマークブレーカー(Landmark Breaker)は、顔のランドマーク抽出を妨害する最初の専用手法である。
私たちのモチベーションは、顔のランドマーク抽出を乱すことが、DeepFakeの品質を劣化させるために、入力顔のアライメントに影響を与えることです。
DeepFake生成後にのみ動作する検出方法と比較して、Landmark BreakerはDeepFake生成を防ぐために一歩前進する。
- 参考スコア(独自算出の注目度): 40.71503677067645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent development of Deep Neural Networks (DNN) has significantly
increased the realism of AI-synthesized faces, with the most notable examples
being the DeepFakes. The DeepFake technology can synthesize a face of target
subject from a face of another subject, while retains the same face attributes.
With the rapidly increased social media portals (Facebook, Instagram, etc),
these realistic fake faces rapidly spread though the Internet, causing a broad
negative impact to the society. In this paper, we describe Landmark Breaker,
the first dedicated method to disrupt facial landmark extraction, and apply it
to the obstruction of the generation of DeepFake videos.Our motivation is that
disrupting the facial landmark extraction can affect the alignment of input
face so as to degrade the DeepFake quality. Our method is achieved using
adversarial perturbations. Compared to the detection methods that only work
after DeepFake generation, Landmark Breaker goes one step ahead to prevent
DeepFake generation. The experiments are conducted on three state-of-the-art
facial landmark extractors using the recent Celeb-DF dataset.
- Abstract(参考訳): 最近のDeep Neural Networks(DNN)の開発により、AI合成顔のリアリズムが大幅に向上し、最も注目すべき例はDeepFakesです。
ディープフェイク技術は、同じ顔属性を保持しながら、他の被験者の顔から対象の顔を合成することができる。
ソーシャルメディアのポータル(Facebook、Instagramなど)が急速に増加し、こうした現実的な偽の顔はインターネット上で急速に広まり、社会に悪影響を及ぼした。
本稿では,顔のランドマーク抽出を阻害する最初の専用手法であるランドマークブレーカーについて説明し,DeepFakeビデオ生成の妨害に応用し,DeepFake品質を低下させるために,顔のランドマーク抽出が入力面のアライメントに影響を与える可能性があることを動機とする。
本手法は逆摂動を用いて達成する。
DeepFake生成後にのみ動作する検出方法と比較して、Landmark BreakerはDeepFake生成を防ぐために一歩前進する。
最近のceleb-dfデータセットを用いた3つの最先端顔ランドマーク抽出装置について実験を行った。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - Active Fake: DeepFake Camouflage [11.976015496109525]
Face-Swap DeepFakeは、オリジナルの顔と合成顔とを交換することで振舞いを作る。
既存の法医学的手法は、主にディープニューラルネットワーク(DNN)に基づいており、これらの操作を効果的に公開し、重要な認証指標となっている。
混合不整合を発生し,不感,有効性,伝達性を確保したDeepFakeカモフラージュを作成するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T02:46:36Z) - FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training [36.158715089667034]
Face-swap DeepFakeは、AIベースの顔偽造技術だ。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を引き起こす可能性がある。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
論文 参考訳(メタデータ) (2023-07-27T02:36:13Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - DeepFakes: Detecting Forged and Synthetic Media Content Using Machine
Learning [18.623444153774948]
この研究は、DeepFakeの生成と検出技術に関連する課題、研究動向、方向性を提示する。
この研究は、DeepFakeドメインにおける注目すべき研究をレビューし、今後より進歩したDeepFakeに対応する、より堅牢なアプローチの開発を促進する。
論文 参考訳(メタデータ) (2021-09-07T05:19:36Z) - End2End Occluded Face Recognition by Masking Corrupted Features [82.27588990277192]
最先端の一般的な顔認識モデルは、隠蔽された顔画像に対してうまく一般化しない。
本稿では,1つのエンドツーエンドのディープニューラルネットワークに基づいて,オクルージョンに頑健な新しい顔認識手法を提案する。
我々のアプローチは、深い畳み込みニューラルネットワークから破損した特徴を発見し、動的に学習されたマスクによってそれらをきれいにする。
論文 参考訳(メタデータ) (2021-08-21T09:08:41Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - Countering Malicious DeepFakes: Survey, Battleground, and Horizon [17.153920019319603]
DeepFakeと呼ばれる深い生成的アプローチによる顔の外観の作成と操作は、大きな進歩を遂げました。
この新しい技術の邪悪な側面は、別の一般的な研究、すなわち本物のものから偽の顔を識別することを目的としたDeepFake検出を提示します。
コミュニティにおけるDeepFake関連の研究の急速な発展に伴い、双方(すなわちDeepFakeの生成と検出)は戦場の関係を形成している。
論文 参考訳(メタデータ) (2021-02-27T13:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。