論文の概要: What's wrong with this video? Comparing Explainers for Deepfake
Detection
- arxiv url: http://arxiv.org/abs/2105.05902v1
- Date: Wed, 12 May 2021 18:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 14:00:23.165442
- Title: What's wrong with this video? Comparing Explainers for Deepfake
Detection
- Title(参考訳): このビデオはどうしたの?
ディープフェイク検出のための説明器の比較
- Authors: Samuele Pino, Mark James Carman, Paolo Bestagini
- Abstract要約: Deepfakesは、個人の顔が別の顔に置き換えられたコンピュータ操作されたビデオです。
本研究では,実映像と偽動画のラベル付けを説明するために,ホワイトボックス,ブラックボックス,モデル固有の手法を開発し,拡張し,比較する。
特に,shap,gradcam,self-attentionモデルを用いて,高効率ネットに基づく最先端検出器の予測を説明する。
- 参考スコア(独自算出の注目度): 13.089182408360221
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deepfakes are computer manipulated videos where the face of an individual has
been replaced with that of another. Software for creating such forgeries is
easy to use and ever more popular, causing serious threats to personal
reputation and public security. The quality of classifiers for detecting
deepfakes has improved with the releasing of ever larger datasets, but the
understanding of why a particular video has been labelled as fake has not kept
pace.
In this work we develop, extend and compare white-box, black-box and
model-specific techniques for explaining the labelling of real and fake videos.
In particular, we adapt SHAP, GradCAM and self-attention models to the task of
explaining the predictions of state-of-the-art detectors based on EfficientNet,
trained on the Deepfake Detection Challenge (DFDC) dataset. We compare the
obtained explanations, proposing metrics to quantify their visual features and
desirable characteristics, and also perform a user survey collecting users'
opinions regarding the usefulness of the explainers.
- Abstract(参考訳): deepfakes(ディープフェイク)は、個人の顔が別の顔に置き換えられたコンピュータ操作ビデオである。
このような偽造物を作るソフトウェアは使いやすく、ずっと人気があり、個人的評判や治安に深刻な脅威をもたらす。
ディープフェイクを検出するための分類器の品質は、より大規模なデータセットのリリースによって改善されているが、なぜ特定のビデオがフェイクとしてラベル付けされたのかを理解することは、ペースを保たない。
本研究では,実映像と偽動画のラベル付けを説明するために,ホワイトボックス,ブラックボックス,モデル固有の手法を開発し,拡張し,比較する。
特に,Deepfake Detection Challenge (DFDC)データセットに基づいてトレーニングされたEfficientNetに基づく最先端検出器の予測を説明するタスクに,SHAP,GradCAM,自己注意モデルを適用する。
得られた説明結果を比較し,視覚的特徴と望ましい特徴を定量化するための指標を提案するとともに,説明者の有用性に関するユーザの意見収集を行う。
関連論文リスト
- Undercover Deepfakes: Detecting Fake Segments in Videos [1.2609216345578933]
ディープフェイク・ジェネレーションは ディープフェイクの新しいパラダイムだ ほとんどは 真実を歪めるために わずかに修正された 実際のビデオだ
本稿では,フレームとビデオレベルでディープフェイク予測を行うことにより,この問題に対処できるディープフェイク検出手法を提案する。
特に、私たちが取り組むパラダイムは、ディープフェイクのモデレーションのための強力なツールを形成します。
論文 参考訳(メタデータ) (2023-05-11T04:43:10Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Detecting Deepfake Videos Using Euler Video Magnification [1.8506048493564673]
Deepfakeのビデオは、高度な機械学習技術を使ってビデオを操作している。
本稿では,ディープフェイク映像の識別技術について検討する。
提案手法では,Euler手法から抽出した特徴を用いて,偽造映像と未修正映像を分類する3つのモデルを訓練する。
論文 参考訳(メタデータ) (2021-01-27T17:37:23Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [73.61769046989258]
近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Cost Sensitive Optimization of Deepfake Detector [6.427063076424032]
我々は、ディープフェイク検出タスクは、ユーザーが毎日大量のビデオを視聴するスクリーニングタスクとみなすべきであると論じている。
アップロードされたビデオのほんの一部だけがディープフェイクであることは明らかなので、検出性能をコストに敏感な方法で測定する必要がある。
論文 参考訳(メタデータ) (2020-12-08T04:06:02Z) - Deepfake Video Forensics based on Transfer Learning [0.0]
ディープフェイク」は、人間が本物のものと区別できない偽のイメージやビデオを作ることができる。
本稿では,各ディープフェイク映像フレームの特徴を把握するために,画像分類モデルを再学習する方法について述べる。
Deepfakeのビデオをチェックすると、87%以上の精度が得られた。
論文 参考訳(メタデータ) (2020-04-29T13:21:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。