論文の概要: How Do the Hearts of Deep Fakes Beat? Deep Fake Source Detection via
Interpreting Residuals with Biological Signals
- arxiv url: http://arxiv.org/abs/2008.11363v1
- Date: Wed, 26 Aug 2020 03:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:12:02.976419
- Title: How Do the Hearts of Deep Fakes Beat? Deep Fake Source Detection via
Interpreting Residuals with Biological Signals
- Title(参考訳): ディープフェイクの心臓はどのように振る舞うのか?
生体信号による残差の解釈による深部偽検出
- Authors: Umur Aybars Ciftci and Ilke Demir and Lijun Yin
- Abstract要約: 本研究では, 真偽を分離するだけでなく, 真偽の背後にある特定の生成モデルを発見するアプローチを提案する。
提案手法は,97.29%の精度で偽動画を検出でき,93.39%の精度でソースモデルを検出できることを示す。
- 参考スコア(独自算出の注目度): 9.918684475252636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fake portrait video generation techniques have been posing a new threat to
the society with photorealistic deep fakes for political propaganda, celebrity
imitation, forged evidences, and other identity related manipulations.
Following these generation techniques, some detection approaches have also been
proved useful due to their high classification accuracy. Nevertheless, almost
no effort was spent to track down the source of deep fakes. We propose an
approach not only to separate deep fakes from real videos, but also to discover
the specific generative model behind a deep fake. Some pure deep learning based
approaches try to classify deep fakes using CNNs where they actually learn the
residuals of the generator. We believe that these residuals contain more
information and we can reveal these manipulation artifacts by disentangling
them with biological signals. Our key observation yields that the
spatiotemporal patterns in biological signals can be conceived as a
representative projection of residuals. To justify this observation, we extract
PPG cells from real and fake videos and feed these to a state-of-the-art
classification network for detecting the generative model per video. Our
results indicate that our approach can detect fake videos with 97.29% accuracy,
and the source model with 93.39% accuracy.
- Abstract(参考訳): 偽のポートレートビデオ生成技術は、政治的プロパガンダ、有名人の模倣、偽物証拠、その他のアイデンティティ関連の操作のためのフォトリアリスティックなディープフェイクによって、社会に新たな脅威をもたらしている。
これらの生成技術に従い、その分類精度が高いため、いくつかの検出手法が有用であることが証明されている。
それでも、ディープフェイクの出所を追跡する努力はほとんど行われなかった。
提案手法は,ディープフェイクと実際のビデオとを分離するだけでなく,ディープフェイクの背後にある特定の生成モデルを発見することである。
純粋なディープラーニングベースのアプローチでは、CNNを使用して深いフェイクを分類し、ジェネレータの残余を実際に学習する。
我々はこれらの残留物にはより多くの情報が含まれていると信じており、これらの操作の成果物は生物学的な信号と区別することで明らかにすることができる。
生体信号の時空間パターンは, 残留物の代表的な投影として考えられる。
この観察を正当化するために,実映像と偽映像からppgセルを抽出し,映像毎に生成モデルを検出するための最先端分類ネットワークに供給する。
提案手法は,97.29%の精度で偽動画を検出でき,93.39%の精度でソースモデルを検出できることを示す。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - How Do Deepfakes Move? Motion Magnification for Deepfake Source
Detection [4.567475511774088]
顔の筋下運動に基づく一般化されたディープフェイク源検出器を構築した。
提案手法は実動作と増幅されたGAN指紋の違いを利用する。
我々は2つのマルチソースデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-12-28T18:59:21Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Deepfake Caricatures: Amplifying attention to artifacts increases
deepfake detection by humans and machines [17.7858728343141]
ディープフェイクは誤報を燃やすことでデジタルウェルビーイングに深刻な脅威をもたらす。
ディープフェイクビデオのアーティファクトを増幅するフレームワークを導入し、人々がより検出できるようにする。
本稿では,ビデオアーティファクトをハイライトするアテンションマップを作成するために,人間の反応をトレーニングする,新しい半教師付きアーティファクトアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2022-06-01T14:43:49Z) - A Survey of Deep Fake Detection for Trial Courts [2.320417845168326]
DeepFakeのアルゴリズムは、人間が本物と区別できない偽のイメージやビデオを作成することができる。
偽の情報を拡散するのを避けるために、偽の動画を検出することが不可欠になっている。
本稿では,DeepFakeを検知する手法と,DeepFakeを検出できるデータセットについて検討する。
論文 参考訳(メタデータ) (2022-05-31T13:50:25Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Where Do Deep Fakes Look? Synthetic Face Detection via Gaze Tracking [8.473714899301601]
ディープフェイクと異なる目と視線の特徴をいくつか提案する。
次に、これらの機能をシグネチャにコンパイルし、リアルビデオとフェイクビデオの機能を分析および比較します。
第3に,この公式をディープニューラルネットワークによるディープフェイク検出問題に一般化する。
論文 参考訳(メタデータ) (2021-01-04T18:54:46Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to
Adversarial Examples [23.695497512694068]
ビデオ操作技術の最近の進歩は、偽ビデオの生成をこれまで以上にアクセスしやすくしている。
操作されたビデオは偽情報を燃やし、メディアの信頼を減らすことができる。
近年開発されたDeepfake検出方法は、AI生成のフェイクビデオと実際のビデオとを区別するために、ディープニューラルネットワーク(DNN)に依存している。
論文 参考訳(メタデータ) (2020-02-09T07:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。