論文の概要: UVL: A Unified Framework for Video Tampering Localization
- arxiv url: http://arxiv.org/abs/2309.16126v1
- Date: Thu, 28 Sep 2023 03:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 18:04:42.652721
- Title: UVL: A Unified Framework for Video Tampering Localization
- Title(参考訳): UVL: ビデオのローカライゼーションのための統一フレームワーク
- Authors: Pengfei Pei, Xianfeng Zhao, Jinchuan Li, Yun Cao
- Abstract要約: 提案するUVLは,偽造語を合成するための新しいビデオ改ざんローカライゼーションフレームワークである。
UVLは合成前駆体の共通的な特徴を抽出する: 合成後縁の境界アーティファクト、生成した画素の不自然な分布、および前駆領域と原産地の非相関。
UVLは、様々なベンチマークで最先端のパフォーマンスを達成し、クロスデータセットでは大きなマージンで既存の手法を上回っている。
- 参考スコア(独自算出の注目度): 19.807086475092348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of deep learning technology, various forgery methods
emerge endlessly. Meanwhile, methods to detect these fake videos have also
achieved excellent performance on some datasets. However, these methods suffer
from poor generalization to unknown videos and are inefficient for new forgery
methods. To address this challenging problem, we propose UVL, a novel unified
video tampering localization framework for synthesizing forgeries.
Specifically, UVL extracts common features of synthetic forgeries: boundary
artifacts of synthetic edges, unnatural distribution of generated pixels, and
noncorrelation between the forgery region and the original. These features are
widely present in different types of synthetic forgeries and help improve
generalization for detecting unknown videos. Extensive experiments on three
types of synthetic forgery: video inpainting, video splicing and DeepFake show
that the proposed UVL achieves state-of-the-art performance on various
benchmarks and outperforms existing methods by a large margin on cross-dataset.
- Abstract(参考訳): ディープラーニング技術の発展により、様々な偽造手法が無限に現れる。
一方で、これらの偽ビデオを検出する手法は、いくつかのデータセットで優れたパフォーマンスを達成している。
しかし、これらの手法は未知のビデオへの一般化が悪く、新しい偽造法では非効率である。
この課題に対処するため,我々は,偽造を合成するための新しい統一型ビデオ改ざんローカライズフレームワークuvlを提案する。
具体的には、UVLは合成前駆体の共通特徴を抽出し、合成端の境界アーチファクト、生成した画素の不自然な分布、および前駆領域と原点との非相関を抽出する。
これらの特徴は様々な種類の合成フォージェリーに広く存在し、未知のビデオを検出するための一般化に役立つ。
ビデオインペインティング、ビデオスプライシング、ディープフェイクの3種類の合成偽造に関する広範囲な実験は、提案されたuvlが様々なベンチマークで最先端のパフォーマンスを達成し、クロスデータセットにおいて既存の方法を大きく上回っていることを示している。
関連論文リスト
- Exposing AI-generated Videos: A Benchmark Dataset and a Local-and-Global Temporal Defect Based Detection Method [31.763312726582217]
生成モデルは、セキュリティ問題を引き起こす現実的なビデオの作成において、大きな進歩を遂げた。
本稿では,先進的な拡散型ビデオ生成アルゴリズムを用いて,様々なセマンティックな内容の映像データセットを構築する。
現在のAI生成ビデオの局所的およびグローバル的時間的欠陥を分析して、偽ビデオを公開するための新たな検出フレームワークを構築する。
論文 参考訳(メタデータ) (2024-05-07T09:00:09Z) - AVTENet: Audio-Visual Transformer-based Ensemble Network Exploiting
Multiple Experts for Video Deepfake Detection [53.448283629898214]
近年の超現実的なディープフェイクビデオの普及は、オーディオと視覚の偽造の脅威に注意を向けている。
AI生成のフェイクビデオの検出に関するこれまでのほとんどの研究は、視覚的モダリティまたはオーディオ的モダリティのみを使用していた。
音響操作と視覚操作の両方を考慮したAVTENet(Audio-Visual Transformer-based Ensemble Network)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T19:01:26Z) - SELF-VS: Self-supervised Encoding Learning For Video Summarization [6.21295508577576]
本稿では,知識蒸留を用いてトランスフォーマーエンコーダを事前学習する自己教師型ビデオ表現学習手法を提案する。
提案手法は,フレーム重要度スコアに基づいて構築されたセマンティックビデオ表現と,映像分類を訓練したCNNから派生した表現とをマッチングする。
論文 参考訳(メタデータ) (2023-03-28T14:08:05Z) - VIDM: Video Implicit Diffusion Models [75.90225524502759]
拡散モデルは、高品質で多様な画像の集合を合成するための強力な生成方法として登場した。
本研究では,移動の効果を暗黙の条件でモデル化する拡散モデルに基づく映像生成手法を提案する。
我々は,空間トランケーションのサンプリング,ロバストネスペナルティ,位置群正規化などの複数の戦略を提案することにより,生成されたビデオの品質を向上させる。
論文 参考訳(メタデータ) (2022-12-01T02:58:46Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - Exposing Deep-faked Videos by Anomalous Co-motion Pattern Detection [23.08488360126588]
本研究では,ディープフェイク映像の露出に特化して設計された完全解釈可能なビデオ法則を提案する。
各種コンテンツによる映像の一般化性を高めるため,ビデオ内の複数の特定の空間的位置の時間的動きをモデル化する。
提案したコモーションパターンは,ディープフェイク映像のデータ圧縮に対して,優れた解釈性と十分なロバスト性を有する。
論文 参考訳(メタデータ) (2020-08-11T16:47:02Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。