論文の概要: UVL: A Unified Framework for Video Tampering Localization
- arxiv url: http://arxiv.org/abs/2309.16126v1
- Date: Thu, 28 Sep 2023 03:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 18:04:42.652721
- Title: UVL: A Unified Framework for Video Tampering Localization
- Title(参考訳): UVL: ビデオのローカライゼーションのための統一フレームワーク
- Authors: Pengfei Pei, Xianfeng Zhao, Jinchuan Li, Yun Cao
- Abstract要約: 提案するUVLは,偽造語を合成するための新しいビデオ改ざんローカライゼーションフレームワークである。
UVLは合成前駆体の共通的な特徴を抽出する: 合成後縁の境界アーティファクト、生成した画素の不自然な分布、および前駆領域と原産地の非相関。
UVLは、様々なベンチマークで最先端のパフォーマンスを達成し、クロスデータセットでは大きなマージンで既存の手法を上回っている。
- 参考スコア(独自算出の注目度): 19.807086475092348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of deep learning technology, various forgery methods
emerge endlessly. Meanwhile, methods to detect these fake videos have also
achieved excellent performance on some datasets. However, these methods suffer
from poor generalization to unknown videos and are inefficient for new forgery
methods. To address this challenging problem, we propose UVL, a novel unified
video tampering localization framework for synthesizing forgeries.
Specifically, UVL extracts common features of synthetic forgeries: boundary
artifacts of synthetic edges, unnatural distribution of generated pixels, and
noncorrelation between the forgery region and the original. These features are
widely present in different types of synthetic forgeries and help improve
generalization for detecting unknown videos. Extensive experiments on three
types of synthetic forgery: video inpainting, video splicing and DeepFake show
that the proposed UVL achieves state-of-the-art performance on various
benchmarks and outperforms existing methods by a large margin on cross-dataset.
- Abstract(参考訳): ディープラーニング技術の発展により、様々な偽造手法が無限に現れる。
一方で、これらの偽ビデオを検出する手法は、いくつかのデータセットで優れたパフォーマンスを達成している。
しかし、これらの手法は未知のビデオへの一般化が悪く、新しい偽造法では非効率である。
この課題に対処するため,我々は,偽造を合成するための新しい統一型ビデオ改ざんローカライズフレームワークuvlを提案する。
具体的には、UVLは合成前駆体の共通特徴を抽出し、合成端の境界アーチファクト、生成した画素の不自然な分布、および前駆領域と原点との非相関を抽出する。
これらの特徴は様々な種類の合成フォージェリーに広く存在し、未知のビデオを検出するための一般化に役立つ。
ビデオインペインティング、ビデオスプライシング、ディープフェイクの3種類の合成偽造に関する広範囲な実験は、提案されたuvlが様々なベンチマークで最先端のパフォーマンスを達成し、クロスデータセットにおいて既存の方法を大きく上回っていることを示している。
関連論文リスト
- Zero-Shot Video Editing through Adaptive Sliding Score Distillation [51.57440923362033]
本研究は,オリジナルビデオコンテンツの直接操作を容易にする,ビデオベースのスコア蒸留の新たなパラダイムを提案する。
本稿では,グローバルとローカルの両方の動画ガイダンスを取り入れた適応スライディングスコア蒸留方式を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:33:59Z) - Video Infringement Detection via Feature Disentanglement and Mutual
Information Maximization [51.206398602941405]
本稿では,元の高次元特徴を複数のサブ機能に分解することを提案する。
歪んだサブ機能の上に,サブ機能を強化する補助的特徴を学習する。
提案手法は,大規模SVDデータセット上で90.1%のTOP-100 mAPを達成し,VCSLベンチマークデータセット上で新たな最先端を設定できる。
論文 参考訳(メタデータ) (2023-09-13T10:53:12Z) - Video Segmentation Learning Using Cascade Residual Convolutional Neural
Network [0.0]
本研究では,残差情報を前景検出学習プロセスに組み込んだ新しい深層学習ビデオセグメンテーション手法を提案する。
Change Detection 2014とPetrobrasのプライベートデータセットであるPetrobrasROUTESで実施された実験は、提案手法の有効性を支持している。
論文 参考訳(メタデータ) (2022-12-20T16:56:54Z) - Multimodal Graph Learning for Deepfake Detection [10.077496841634135]
既存のディープフェイク検出器は、堅牢性と一般化を達成する上でいくつかの課題に直面している。
本稿では,マルチモーダルグラフ学習(MGL)という新しいフレームワークを提案する。
提案手法は,ディープフェイク検出のための特徴を効果的に識別し,活用することを目的としている。
論文 参考訳(メタデータ) (2022-09-12T17:17:49Z) - NSNet: Non-saliency Suppression Sampler for Efficient Video Recognition [89.84188594758588]
非定常フレームの応答を抑制するために, NSNet(Non-Sliency Suppression Network)を提案する。
NSNetは最先端の精度効率トレードオフを実現し、最先端の手法よりもはるかに高速な2.44.3xの実用的な推論速度を示す。
論文 参考訳(メタデータ) (2022-07-21T09:41:22Z) - Combining Contrastive and Supervised Learning for Video Super-Resolution
Detection [0.0]
コントラストとクロスエントロピーの損失を用いた視覚表現の学習に基づく新しいアップスケール分解能検出法を提案する。
本手法は,圧縮ビデオにおいてもアップスケーリングを効果的に検出し,最先端の代替品よりも優れる。
論文 参考訳(メタデータ) (2022-05-20T18:58:13Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Semi-Supervised Action Recognition with Temporal Contrastive Learning [50.08957096801457]
2つの異なる速度でラベル付きビデオを用いて2経路の時間的コントラストモデルを学習する。
我々は最先端の半教師付き画像認識手法の映像拡張性能を著しく向上させた。
論文 参考訳(メタデータ) (2021-02-04T17:28:35Z) - FOCAL: A Forgery Localization Framework based on Video Coding
Self-Consistency [26.834506269499094]
本稿では,ビデオフレーム内における符号化トレースの自己整合性を検証するビデオフォージェリーローカライゼーションフレームワークを提案する。
全体フレームワークは、時間的スプライシングと空間的スプライシングの2つの典型的なフォージェリーシナリオで検証された。
実験結果から,空間スプライシングにおける時間的スプライシングの局所化に関する最先端技術の改善と,空間スプライシングの新たな取組における有望な性能が示された。
論文 参考訳(メタデータ) (2020-08-24T13:55:14Z) - VideoForensicsHQ: Detecting High-quality Manipulated Face Videos [77.60295082172098]
偽造検知器の性能は、人間の目で見られる人工物の存在にどのように依存するかを示す。
前例のない品質の顔ビデオ偽造検出のための新しいベンチマークデータセットを導入する。
論文 参考訳(メタデータ) (2020-05-20T21:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。