論文の概要: Video Face Manipulation Detection Through Ensemble of CNNs
- arxiv url: http://arxiv.org/abs/2004.07676v1
- Date: Thu, 16 Apr 2020 14:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 22:22:36.001420
- Title: Video Face Manipulation Detection Through Ensemble of CNNs
- Title(参考訳): CNNのアンサンブルによる映像顔操作検出
- Authors: Nicol\`o Bonettini, Edoardo Daniele Cannas, Sara Mandelli, Luca Bondi,
Paolo Bestagini, Stefano Tubaro
- Abstract要約: 現代の顔操作技術をターゲットにした映像系列における顔操作検出の課題に対処する。
特に、異なる訓練された畳み込みニューラルネットワーク(CNN)モデルのアンサンブルについて検討する。
これらのネットワークを組み合わせることで、2つの公開データセット上での顔操作検出結果が期待できることを示す。
- 参考スコア(独自算出の注目度): 17.051112469244778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few years, several techniques for facial manipulation in videos
have been successfully developed and made available to the masses (i.e.,
FaceSwap, deepfake, etc.). These methods enable anyone to easily edit faces in
video sequences with incredibly realistic results and a very little effort.
Despite the usefulness of these tools in many fields, if used maliciously, they
can have a significantly bad impact on society (e.g., fake news spreading,
cyber bullying through fake revenge porn). The ability of objectively detecting
whether a face has been manipulated in a video sequence is then a task of
utmost importance. In this paper, we tackle the problem of face manipulation
detection in video sequences targeting modern facial manipulation techniques.
In particular, we study the ensembling of different trained Convolutional
Neural Network (CNN) models. In the proposed solution, different models are
obtained starting from a base network (i.e., EfficientNetB4) making use of two
different concepts: (i) attention layers; (ii) siamese training. We show that
combining these networks leads to promising face manipulation detection results
on two publicly available datasets with more than 119000 videos.
- Abstract(参考訳): ここ数年、ビデオにおける顔操作のためのいくつかの技術が成功し、大衆(FaceSwap、Deepfakeなど)で利用できるようになった。
これらの方法では、誰でも驚くほどリアルな結果とわずかな努力で、ビデオシーケンスで簡単に顔を編集できる。
これらのツールが多くの分野で有用であるにもかかわらず、悪意を持って使用すれば、社会に著しく悪影響を及ぼす可能性がある(例えば、偽ニュース拡散、偽リベンジポルノによるサイバーいじめ)。
ビデオシーケンスで顔が操作されたかどうかを客観的に検出する能力は、最重要課題である。
本稿では,現代の顔操作技術を対象とした映像系列における顔操作検出の問題に取り組む。
特に,様々な訓練された畳み込みニューラルネットワーク(cnn)モデルのセンシングについて検討した。
提案手法では,2つの異なる概念を生かして,ベースネットワーク(すなわち efficientnetb4)から異なるモデルを得る。
(i)注意層
(ii)シャムの訓練。
これらのネットワークを組み合わせると、119000以上のビデオを含む2つの公開データセットで、顔操作検出結果が期待できることがわかった。
関連論文リスト
- Face Forgery Detection Based on Facial Region Displacement Trajectory
Series [10.338298543908339]
本研究では,顔領域変位の軌跡に基づく操作映像の検出手法を開発した。
この情報を用いて、操作されたビデオの軌跡列に多次元のアーティファクトを露呈するネットワークを構築した。
論文 参考訳(メタデータ) (2022-12-07T14:47:54Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Convolutional Neural Network Based Partial Face Detection [0.0]
本研究の目的は、顔を正しく認識する機械学習モデルを作成し、拡張することである。
モデルの作成と実行の後、マルチタスク畳み込みニューラルネットワーク(MTCNN)は96.2%の精度を達成した。
論文 参考訳(メタデータ) (2022-06-29T01:26:40Z) - Video2StyleGAN: Encoding Video in Latent Space for Manipulation [63.03250800510085]
本稿では,顔映像のセマンティックな操作のために,顔映像をStyleGANの潜在空間に符号化する新しいネットワークを提案する。
提案手法は,リアルタイム(66fps)の高速化を実現しつつ,既存の単一画像手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-06-27T06:48:15Z) - Copy Motion From One to Another: Fake Motion Video Generation [53.676020148034034]
人工知能の魅力的な応用は、任意の所望の動作を行う対象者のビデオを生成することである。
現在の手法では、通常、生成されたビデオの信頼性を評価するために、L2損失のGANを用いる。
本稿では,ポーズから前景画像へのマッピングの学習を容易にする理論的動機付け型Gromov-Wasserstein損失を提案する。
本手法は,人物の複雑な動きを忠実にコピーすることで,現実的な人物映像を生成できる。
論文 参考訳(メタデータ) (2022-05-03T08:45:22Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Detecting Deepfake Videos Using Euler Video Magnification [1.8506048493564673]
Deepfakeのビデオは、高度な機械学習技術を使ってビデオを操作している。
本稿では,ディープフェイク映像の識別技術について検討する。
提案手法では,Euler手法から抽出した特徴を用いて,偽造映像と未修正映像を分類する3つのモデルを訓練する。
論文 参考訳(メタデータ) (2021-01-27T17:37:23Z) - Detecting Deep-Fake Videos from Appearance and Behavior [0.0]
本稿では,顔洗脳深部偽物検出のためのバイオメトリックスに基づく法医学的手法について述べる。
複数の大規模ビデオデータセットにまたがって,このアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-04-29T21:38:22Z) - Detecting Face2Face Facial Reenactment in Videos [76.9573023955201]
本研究では,再現性に基づく変化を検出する学習に基づくアルゴリズムを提案する。
提案アルゴリズムは,局所的なアーティファクトを学習し,様々な圧縮レベルで堅牢な性能を提供するマルチストリームネットワークを用いている。
その結果, 99.96%, 99.10%, 91.20%の非, 容易, 硬度圧縮係数が得られた。
論文 参考訳(メタデータ) (2020-01-21T11:03:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。