論文の概要: Detection of GAN-synthesized street videos
- arxiv url: http://arxiv.org/abs/2109.04991v1
- Date: Fri, 10 Sep 2021 16:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:44:22.375153
- Title: Detection of GAN-synthesized street videos
- Title(参考訳): GAN合成ストリートビデオの検出
- Authors: Omran Alamayreh and Mauro Barni
- Abstract要約: 本稿では,新たなAI生成ビデオがストリートシーケンスを駆動する際の検出可能性について検討する(以下,DeepStreetsビデオと呼ぶ)。
我々は、Vid2vidアーキテクチャによって生成された最先端のDeepStreetsビデオにおいて、非常に優れた性能を発揮する、シンプルなフレームベース検出器を提案する。
- 参考スコア(独自算出の注目度): 21.192357452920007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research on the detection of AI-generated videos has focused almost
exclusively on face videos, usually referred to as deepfakes. Manipulations
like face swapping, face reenactment and expression manipulation have been the
subject of an intense research with the development of a number of efficient
tools to distinguish artificial videos from genuine ones. Much less attention
has been paid to the detection of artificial non-facial videos. Yet, new tools
for the generation of such kind of videos are being developed at a fast pace
and will soon reach the quality level of deepfake videos. The goal of this
paper is to investigate the detectability of a new kind of AI-generated videos
framing driving street sequences (here referred to as DeepStreets videos),
which, by their nature, can not be analysed with the same tools used for facial
deepfakes. Specifically, we present a simple frame-based detector, achieving
very good performance on state-of-the-art DeepStreets videos generated by the
Vid2vid architecture. Noticeably, the detector retains very good performance on
compressed videos, even when the compression level used during training does
not match that used for the test videos.
- Abstract(参考訳): AI生成ビデオの検出に関する研究は、主にディープフェイクと呼ばれるフェイスビデオに焦点を当てている。
顔の交換、顔の再現、表情の操作といった操作は、人工ビデオと本物の動画を区別する効率的なツールの開発とともに、激しい研究の対象となっている。
人工非顔ビデオの検出には、はるかに注意が払われていない。
しかし、このようなビデオを生成するための新しいツールが、急速に開発され、間もなく、ディープフェイクビデオの品質レベルに達するだろう。
本研究の目的は、顔のディープフェイクに使用されるのと同じツールで分析できない、新しいタイプのAI生成ビデオがストリートシーケンスを駆動する(以下、DeepStreetsビデオと呼ぶ)ことの検出可能性を調べることである。
具体的には、Vid2vidアーキテクチャによって生成された最先端のDeepStreetsビデオにおいて、非常に優れた性能を発揮する。
特に、この検出器は、トレーニング中に使用する圧縮レベルがテストビデオと一致しない場合でも、圧縮ビデオの性能が非常に高い。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - What Matters in Detecting AI-Generated Videos like Sora? [51.05034165599385]
合成ビデオと現実世界のビデオのギャップは、まだ未発見のままだ。
本研究では,現在最先端のAIモデルであるStable Video Diffusionによって生成された実世界の映像を比較した。
我々のモデルは、訓練中にSoraのビデオに露出することなく、Soraが生成した映像を高精度に検出することができる。
論文 参考訳(メタデータ) (2024-06-27T23:03:58Z) - Turns Out I'm Not Real: Towards Robust Detection of AI-Generated Videos [16.34393937800271]
高品質なビデオを作成するための生成モデルは、デジタル整合性とプライバシーの脆弱性に関する懸念を提起している。
ディープフェイクスのビデオと戦うための最近の研究は、ガン生成サンプルを正確に識別する検出器を開発した。
本稿では,複数の最先端(SOTA)生成モデルから合成された映像を検出するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T21:52:49Z) - AVTENet: Audio-Visual Transformer-based Ensemble Network Exploiting
Multiple Experts for Video Deepfake Detection [53.448283629898214]
近年の超現実的なディープフェイクビデオの普及は、オーディオと視覚の偽造の脅威に注意を向けている。
AI生成のフェイクビデオの検出に関するこれまでのほとんどの研究は、視覚的モダリティまたはオーディオ的モダリティのみを使用していた。
音響操作と視覚操作の両方を考慮したAVTENet(Audio-Visual Transformer-based Ensemble Network)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T19:01:26Z) - Comparative Analysis of Deep-Fake Algorithms [0.0]
ディープフェイク(Deepfakes)は、ディープラーニングベースのフェイクビデオとしても知られており、近年大きな関心を集めている。
これらのディープフェイクビデオは、誤った情報を広めたり、個人を偽装したり、フェイクニュースを作るといった悪質な目的で使用することができる。
ディープフェイク検出技術は、顔認識、モーション分析、音声と視覚の同期といった様々なアプローチを使用する。
論文 参考訳(メタデータ) (2023-09-06T18:17:47Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Detecting Deepfake Videos Using Euler Video Magnification [1.8506048493564673]
Deepfakeのビデオは、高度な機械学習技術を使ってビデオを操作している。
本稿では,ディープフェイク映像の識別技術について検討する。
提案手法では,Euler手法から抽出した特徴を用いて,偽造映像と未修正映像を分類する3つのモデルを訓練する。
論文 参考訳(メタデータ) (2021-01-27T17:37:23Z) - Cost Sensitive Optimization of Deepfake Detector [6.427063076424032]
我々は、ディープフェイク検出タスクは、ユーザーが毎日大量のビデオを視聴するスクリーニングタスクとみなすべきであると論じている。
アップロードされたビデオのほんの一部だけがディープフェイクであることは明らかなので、検出性能をコストに敏感な方法で測定する必要がある。
論文 参考訳(メタデータ) (2020-12-08T04:06:02Z) - Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to
Adversarial Examples [23.695497512694068]
ビデオ操作技術の最近の進歩は、偽ビデオの生成をこれまで以上にアクセスしやすくしている。
操作されたビデオは偽情報を燃やし、メディアの信頼を減らすことができる。
近年開発されたDeepfake検出方法は、AI生成のフェイクビデオと実際のビデオとを区別するために、ディープニューラルネットワーク(DNN)に依存している。
論文 参考訳(メタデータ) (2020-02-09T07:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。