論文の概要: Detection of fake faces in videos
- arxiv url: http://arxiv.org/abs/2201.12051v1
- Date: Fri, 28 Jan 2022 11:29:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 15:46:36.382195
- Title: Detection of fake faces in videos
- Title(参考訳): ビデオ中の偽顔の検出
- Authors: M. Shamanth, Russel Mathias, Dr Vijayalakshmi MN
- Abstract要約: 本稿では、データセット上でトレーニングされたResNetとXceptionアンサンブルアーキテクチャニューラルネットワークを用いて、ビデオ中の偽の顔を検出するという目標を達成する。
トレーニングサイクルのピーク時のk折りの精度は約91%で、実際の精度はモデルが崩壊するにつれて時間とともに変化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: : Deep learning methodologies have been used to create applications that can
cause threats to privacy, democracy and national security and could be used to
further amplify malicious activities. One of those deep learning-powered
applications in recent times is synthesized videos of famous personalities.
According to Forbes, Generative Adversarial Networks(GANs) generated fake
videos growing exponentially every year and the organization known as Deeptrace
had estimated an increase of deepfakes by 84% from the year 2018 to 2019. They
are used to generate and modify human faces, where most of the existing fake
videos are of prurient non-consensual nature, of which its estimates to be
around 96% and some carried out impersonating personalities for cyber crime. In
this paper, available video datasets are identified and a pretrained model
BlazeFace is used to detect faces, and a ResNet and Xception ensembled
architectured neural network trained on the dataset to achieve the goal of
detection of fake faces in videos. The model is optimized over a loss value and
log loss values and evaluated over its F1 score. Over a sample of data, it is
observed that focal loss provides better accuracy, F1 score and loss as the
gamma of the focal loss becomes a hyper parameter. This provides a k-folded
accuracy of around 91% at its peak in a training cycle with the real world
accuracy subjected to change over time as the model decays.
- Abstract(参考訳): ディープ・ラーニング・方法論は、プライバシー、民主主義、国家安全保障に脅威をもたらし、悪意のある活動をさらに増幅するアプリケーションを作成するために用いられてきた。
ディープラーニングを利用した最近のアプリケーションの一つが、有名人格の合成ビデオだ。
Forbesによると、GAN(Generative Adversarial Networks)は、毎年急速に成長するフェイクビデオを生成し、Deeptraceとして知られる組織は2018年から2019年にかけて、ディープフェイクを84%増加させたと見積もっている。
それらは人間の顔の生成と修正に使われており、既存のフェイクビデオのほとんどは、その推定では96%、一部ではサイバー犯罪の個人性を偽造している。
本稿では、利用可能なビデオデータセットを特定し、顔検出にプリトレーニングモデルblazefaceを使用し、データセット上でトレーニングされたresnetおよびxceptionアンサンブルアーキテクチャドニューラルネットワークを使用して、ビデオ中の偽顔検出の目標を達成する。
このモデルは損失値とログ損失値よりも最適化され、そのf1スコアで評価される。
データのサンプルでは、焦点損失のガンマがハイパーパラメータとなるにつれて、焦点損失がより良い精度、F1のスコアと損失をもたらすことが観察された。
これにより、トレーニングサイクルのピーク時のk折りの精度は約91%となり、実際の精度はモデルが崩壊するにつれて経時的に変化する。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Shaking the Fake: Detecting Deepfake Videos in Real Time via Active Probes [3.6308756891251392]
生成AIの一種であるリアルタイムディープフェイク(Real-time Deepfake)は、ビデオ内の既存のコンテンツ(例えば、顔を別のものと交換する)を「生成する」ことができる。
金融詐欺や政治的誤報など、悪意ある目的のためにディープフェイクビデオを作るのに誤用されている。
本研究では,物理干渉に適応できないディープフェイクモデルを利用した新しいリアルタイムディープフェイク検出手法であるSFakeを提案する。
論文 参考訳(メタデータ) (2024-09-17T04:58:30Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - End2End Occluded Face Recognition by Masking Corrupted Features [82.27588990277192]
最先端の一般的な顔認識モデルは、隠蔽された顔画像に対してうまく一般化しない。
本稿では,1つのエンドツーエンドのディープニューラルネットワークに基づいて,オクルージョンに頑健な新しい顔認識手法を提案する。
我々のアプローチは、深い畳み込みニューラルネットワークから破損した特徴を発見し、動的に学習されたマスクによってそれらをきれいにする。
論文 参考訳(メタデータ) (2021-08-21T09:08:41Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - ID-Reveal: Identity-aware DeepFake Video Detection [24.79483180234883]
ID-Reveal(ID-Reveal)は、時間的顔の特徴を学習する新しいアプローチだ。
偽物のトレーニングデータは必要ありませんが、実際のビデオでトレーニングするだけです。
高圧縮映像における顔再現の精度は平均15%以上向上した。
論文 参考訳(メタデータ) (2020-12-04T10:43:16Z) - Deepfake Video Forensics based on Transfer Learning [0.0]
ディープフェイク」は、人間が本物のものと区別できない偽のイメージやビデオを作ることができる。
本稿では,各ディープフェイク映像フレームの特徴を把握するために,画像分類モデルを再学習する方法について述べる。
Deepfakeのビデオをチェックすると、87%以上の精度が得られた。
論文 参考訳(メタデータ) (2020-04-29T13:21:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。