論文の概要: Face Forgery Detection Based on Facial Region Displacement Trajectory
Series
- arxiv url: http://arxiv.org/abs/2212.03678v1
- Date: Wed, 7 Dec 2022 14:47:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 15:02:53.619222
- Title: Face Forgery Detection Based on Facial Region Displacement Trajectory
Series
- Title(参考訳): 顔領域変位軌跡系列に基づく顔偽造検出
- Authors: YuYang Sun, ZhiYong Zhang, Isao Echizen, Huy H.Nguyen, ChangZhen Qiu
and Lu Sun
- Abstract要約: 本研究では,顔領域変位の軌跡に基づく操作映像の検出手法を開発した。
この情報を用いて、操作されたビデオの軌跡列に多次元のアーティファクトを露呈するネットワークを構築した。
- 参考スコア(独自算出の注目度): 10.338298543908339
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep-learning-based technologies such as deepfakes ones have been attracting
widespread attention in both society and academia, particularly ones used to
synthesize forged face images. These automatic and professional-skill-free face
manipulation technologies can be used to replace the face in an original image
or video with any target object while maintaining the expression and demeanor.
Since human faces are closely related to identity characteristics, maliciously
disseminated identity manipulated videos could trigger a crisis of public trust
in the media and could even have serious political, social, and legal
implications. To effectively detect manipulated videos, we focus on the
position offset in the face blending process, resulting from the forced affine
transformation of the normalized forged face. We introduce a method for
detecting manipulated videos that is based on the trajectory of the facial
region displacement. Specifically, we develop a virtual-anchor-based method for
extracting the facial trajectory, which can robustly represent displacement
information. This information was used to construct a network for exposing
multidimensional artifacts in the trajectory sequences of manipulated videos
that is based on dual-stream spatial-temporal graph attention and a gated
recurrent unit backbone. Testing of our method on various manipulation datasets
demonstrated that its accuracy and generalization ability is competitive with
that of the leading detection methods.
- Abstract(参考訳): deepfakes oneのようなディープラーニングベースの技術は、社会とアカデミア、特に鍛造顔画像の合成に使われるものの両方で広く注目を集めている。
これらの自動およびプロのスキルフリーな顔操作技術は、表情とデメネータを維持しながら、元の画像またはビデオの顔を任意のターゲットオブジェクトに置き換えることができる。
人間の顔はアイデンティティの特徴と密接に関連しているため、悪質に拡散されたアイデンティティ操作されたビデオは、メディアに対する公衆の信頼の危機を招き、深刻な政治的、社会的、法的影響をもたらす可能性がある。
操作された映像を効果的に検出するために,顔ブレンディングプロセスにおける位置オフセットに着目し,正規化顔の強制アフィン変換を行った。
本稿では,顔領域変位の軌跡に基づく操作映像の検出手法を提案する。
具体的には,変位情報をロバストに表現できる仮想アンカーを用いた顔の軌跡抽出手法を開発した。
この情報は、二重ストリーム空間-時間グラフの注意とゲートリカレント単位バックボーンに基づく操作ビデオの軌跡列において、多次元アーティファクトを露出するネットワークを構築するために用いられた。
本手法を様々な操作データセットで検証したところ,その精度と一般化能力は先行検出法と競合することがわかった。
関連論文リスト
- Learning Expressive And Generalizable Motion Features For Face Forgery
Detection [52.54404879581527]
本稿では,既存のビデオ分類手法に基づく,シーケンスに基づく効果的な偽造検出フレームワークを提案する。
動作特徴をより表現しやすくするために,別の動作整合ブロックを提案する。
一般的なビデオ分類ネットワークを3つの顔偽造データに対して有望な結果を達成する。
論文 参考訳(メタデータ) (2024-03-08T09:25:48Z) - Mover: Mask and Recovery based Facial Part Consistency Aware Method for
Deepfake Video Detection [33.29744034340998]
Moverは新しいDeepfake検出モデルで、不特定の顔の部分の不整合を悪用する。
本稿では,事前学習されたエンコーダとマスク付きオートエンコーダを利用するデュアルネットワークを用いた新しいモデルを提案する。
我々の標準ベンチマーク実験は、Moverが極めて効果的であることを示している。
論文 参考訳(メタデータ) (2023-03-03T06:57:22Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - FakeTransformer: Exposing Face Forgery From Spatial-Temporal
Representation Modeled By Facial Pixel Variations [8.194624568473126]
顔の偽造はあらゆるターゲットを攻撃できるため、個人のプライバシーと財産のセキュリティに新たな脅威をもたらす。
生理的信号の空間的コヒーレンスと時間的一貫性が生成された内容で破壊されるという事実に着想を得て,実ビデオと合成ビデオとを区別できる一貫性のないパターンを見つけ出そうとする。
論文 参考訳(メタデータ) (2021-11-15T08:44:52Z) - Face Forgery Detection by 3D Decomposition [72.22610063489248]
顔画像は、基礎となる3次元幾何学と照明環境の介入の産物とみなす。
顔画像を3次元形状、共通テクスチャ、アイデンティティテクスチャ、周囲光、そして直接光に切り離すことで、悪魔は直接光とアイデンティティテクスチャの中に横たわる。
直接光と識別テクスチャを組み合わせた顔のディテールを,微妙な偽造パターンを検出する手がかりとして活用することを提案する。
論文 参考訳(メタデータ) (2020-11-19T09:25:44Z) - DeepFake Detection Based on the Discrepancy Between the Face and its
Context [94.47879216590813]
単一画像における顔のスワップやその他のアイデンティティ操作を検出する手法を提案する。
提案手法は, (i) 厳密なセマンティックセグメンテーションによって境界付けられた顔領域を考慮した顔識別ネットワークと, (ii) 顔コンテキストを考慮したコンテキスト認識ネットワークの2つのネットワークを含む。
本稿では,2つのネットワークからの認識信号を用いて,そのような不一致を検出する手法について述べる。
提案手法は,FaceForensics++,Celeb-DF-v2,DFDCベンチマークを用いて顔検出を行い,未知の手法で生成した偽物の検出を一般化する。
論文 参考訳(メタデータ) (2020-08-27T17:04:46Z) - Detecting Deep-Fake Videos from Appearance and Behavior [0.0]
本稿では,顔洗脳深部偽物検出のためのバイオメトリックスに基づく法医学的手法について述べる。
複数の大規模ビデオデータセットにまたがって,このアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-04-29T21:38:22Z) - Video Face Manipulation Detection Through Ensemble of CNNs [17.051112469244778]
現代の顔操作技術をターゲットにした映像系列における顔操作検出の課題に対処する。
特に、異なる訓練された畳み込みニューラルネットワーク(CNN)モデルのアンサンブルについて検討する。
これらのネットワークを組み合わせることで、2つの公開データセット上での顔操作検出結果が期待できることを示す。
論文 参考訳(メタデータ) (2020-04-16T14:19:40Z) - Robust Facial Landmark Detection via Aggregation on Geometrically
Manipulated Faces [32.391300491317445]
操作された顔画像のアグリゲーションに同調する。
入力領域における幾何学的操作は、小さいが慎重に設計されているため、深層顔認識モデルを騙すことができる。
提案手法は,ベンチマークデータセットAFLW,300-W,COFWの最先端手法に比べて優れていることを示す。
論文 参考訳(メタデータ) (2020-01-07T16:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。