論文の概要: DPL: Cross-quality DeepFake Detection via Dual Progressive Learning
- arxiv url: http://arxiv.org/abs/2410.07633v1
- Date: Thu, 10 Oct 2024 05:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 15:56:40.619170
- Title: DPL: Cross-quality DeepFake Detection via Dual Progressive Learning
- Title(参考訳): DPL:デュアルプログレッシブラーニングによる高品質なディープフェイク検出
- Authors: Dongliang Zhang, Yunfei Li, Jiaran Zhou, Yuezun Li,
- Abstract要約: 現実世界のDeepFakeビデオは、様々な圧縮操作を受けており、様々なビデオ品質を生み出している。
これらの様々な性質は偽の痕跡のパターンを多様化させ、ディープフェイク検出の困難を著しく増大させる。
クロスクオリティなDeepFake検出のための新しいデュアルプログレッシブラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.387971139890022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world DeepFake videos often undergo various compression operations, resulting in a range of video qualities. These varying qualities diversify the pattern of forgery traces, significantly increasing the difficulty of DeepFake detection. To address this challenge, we introduce a new Dual Progressive Learning (DPL) framework for cross-quality DeepFake detection. We liken this task to progressively drilling for underground water, where low-quality videos require more effort than high-quality ones. To achieve this, we develop two sequential-based branches to "drill waters" with different efforts. The first branch progressively excavates the forgery traces according to the levels of video quality, i.e., time steps, determined by a dedicated CLIP-based indicator. In this branch, a Feature Selection Module is designed to adaptively assign appropriate features to the corresponding time steps. Considering that different techniques may introduce varying forgery traces within the same video quality, we design a second branch targeting forgery identifiability as complementary. This branch operates similarly and shares the feature selection module with the first branch. Our design takes advantage of the sequential model where computational units share weights across different time steps and can memorize previous progress, elegantly achieving progressive learning while maintaining reasonable memory costs. Extensive experiments demonstrate the superiority of our method for cross-quality DeepFake detection.
- Abstract(参考訳): 現実世界のDeepFakeビデオは、様々な圧縮操作を受けており、様々なビデオ品質を生み出している。
これらの様々な性質は偽の痕跡のパターンを多様化させ、ディープフェイク検出の困難を著しく増大させる。
この課題に対処するために、我々は、クロスクオリティなDeepFake検出のための新しいデュアルプログレッシブラーニング(DPL)フレームワークを導入する。
私たちはこのタスクを、低品質のビデオが高品質のビデオよりも多くの労力を必要とする地下の水を徐々に掘り下げることに気に入っている。
そこで我々は,異なる努力で2つのシーケンシャル・ベース・ブランチを「ドリル・ウォーターズ」として開発する。
第1枝は、ビデオ品質、すなわち専用のCLIPベースの指標によって決定される時間ステップのレベルに応じて、フォージェリートレースを段階的に発掘する。
このブランチでは、フィーチャー選択モジュールは、適切な機能を対応する時間ステップに適応的に割り当てるように設計されている。
異なる手法が同じビデオ品質で様々な偽の痕跡をもたらす可能性があることを考慮し、偽の識別性を補完する第2のブランチを設計する。
このブランチも同様に動作し、機能選択モジュールを最初のブランチと共有する。
我々の設計は、計算ユニットが異なる時間ステップで重みを共有できるシーケンシャルモデルを利用しており、適切なメモリコストを維持しながら、先進的な学習をエレガントに達成し、過去の進歩を記憶することができる。
クロスクオリティなDeepFake検出手法の優位性を示す実験を行った。
関連論文リスト
- Learning from One Continuous Video Stream [70.30084026960819]
1つの連続ビデオストリームからオンライン学習のためのフレームワークを導入する。
連続するビデオフレーム間の高い相関を考えると、これは大きな課題となる。
プリトレーニングとシングルストリーム評価を切り替える実用的で柔軟な方法として,ピクセル・ツー・ピクセル・モデリングを採用している。
論文 参考訳(メタデータ) (2023-12-01T14:03:30Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - Inductive and Transductive Few-Shot Video Classification via Appearance
and Temporal Alignments [17.673345523918947]
本稿では,出現と時間的アライメントを行う数ショット映像分類の新しい手法を提案する。
提案手法は, 両方のデータセットにおいて, 従来手法と類似した, あるいは良好な結果が得られる。
論文 参考訳(メタデータ) (2022-07-21T23:28:52Z) - Learning Pixel Trajectories with Multiscale Contrastive Random Walks [42.180912739270724]
様々なビデオモデリングタスクは、時空対応の確立という、同じ根本的な課題を共有している。
我々は、最近の対照的なランダムウォークの定式化を、より高密度でピクセルレベルの時空グラフに拡張することで、このギャップを埋めるための一歩を踏み出した。
これにより、光フロー、キーポイントトラッキング、ビデオオブジェクトセグメンテーションの自己教師付き学習のための統一的な技術が確立される。
論文 参考訳(メタデータ) (2022-01-20T18:58:52Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Semi-Supervised Action Recognition with Temporal Contrastive Learning [50.08957096801457]
2つの異なる速度でラベル付きビデオを用いて2経路の時間的コントラストモデルを学習する。
我々は最先端の半教師付き画像認識手法の映像拡張性能を著しく向上させた。
論文 参考訳(メタデータ) (2021-02-04T17:28:35Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z) - Two-branch Recurrent Network for Isolating Deepfakes in Videos [17.59209853264258]
本稿では,2分岐ネットワーク構造に基づくディープフェイク検出手法を提案する。
1つのブランチは元の情報を伝達し、もう1つのブランチは顔の内容を抑制する。
当社の2つの新しいコンポーネントは、FaceForensics++、Celeb-DF、FacebookのDFDCプレビューベンチマークで有望な結果を示している。
論文 参考訳(メタデータ) (2020-08-08T01:38:56Z) - Temporal Distinct Representation Learning for Action Recognition [139.93983070642412]
2次元畳み込みニューラルネットワーク (2D CNN) はビデオの特徴付けに用いられる。
ビデオの異なるフレームは同じ2D CNNカーネルを共有しており、繰り返し、冗長な情報利用をもたらす可能性がある。
本稿では,異なるフレームからの特徴の識別チャネルを段階的にエキサイティングにするためのシーケンシャルチャネルフィルタリング機構を提案し,繰り返し情報抽出を回避する。
本手法は,ベンチマーク時相推論データセットを用いて評価し,それぞれ2.4%,1.3%の可視性向上を実現している。
論文 参考訳(メタデータ) (2020-07-15T11:30:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。