論文の概要: VideoForensicsHQ: Detecting High-quality Manipulated Face Videos
- arxiv url: http://arxiv.org/abs/2005.10360v2
- Date: Wed, 2 Jun 2021 12:00:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:48:46.810671
- Title: VideoForensicsHQ: Detecting High-quality Manipulated Face Videos
- Title(参考訳): VideoForensicsHQ:高品質な顔ビデオ検出
- Authors: Gereon Fox, Wentao Liu, Hyeongwoo Kim, Hans-Peter Seidel, Mohamed
Elgharib, Christian Theobalt
- Abstract要約: 偽造検知器の性能は、人間の目で見られる人工物の存在にどのように依存するかを示す。
前例のない品質の顔ビデオ偽造検出のための新しいベンチマークデータセットを導入する。
- 参考スコア(独自算出の注目度): 77.60295082172098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are concerns that new approaches to the synthesis of high quality face
videos may be misused to manipulate videos with malicious intent. The research
community therefore developed methods for the detection of modified footage and
assembled benchmark datasets for this task. In this paper, we examine how the
performance of forgery detectors depends on the presence of artefacts that the
human eye can see. We introduce a new benchmark dataset for face video forgery
detection, of unprecedented quality. It allows us to demonstrate that existing
detection techniques have difficulties detecting fakes that reliably fool the
human eye. We thus introduce a new family of detectors that examine
combinations of spatial and temporal features and outperform existing
approaches both in terms of detection accuracy and generalization.
- Abstract(参考訳): 高品質な顔ビデオの合成に新たなアプローチが悪質な意図でビデオを操作するために誤用される可能性があるという懸念がある。
そのため、研究コミュニティは修正映像の検出方法を開発し、このタスクのためのベンチマークデータセットを組み立てた。
本稿では,偽造検知器の性能が,人間の目で見る人工物の存在にどのように依存するかを検討する。
前例のない品質の顔ビデオ偽造検出のための新しいベンチマークデータセットを導入する。
既存の検出技術では、人間の目を確実に騙す偽物を検出するのが困難であることを示すことができる。
そこで我々は,空間的特徴と時間的特徴の組み合わせを検証し,検出精度と一般化の両面で既存手法より優れている新しい検出器群を導入した。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - The Tug-of-War Between Deepfake Generation and Detection [4.62070292702111]
マルチモーダル生成モデルは急速に進化しており、現実的なビデオやオーディオの生成が急増している。
ディープフェイクビデオは、個人を説得力を持って偽造することができるが、悪用の可能性から特に注目を集めている。
本研究では,ディープフェイク映像の生成と検出の両面を考察し,効果的な対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-08T17:49:41Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Learning Expressive And Generalizable Motion Features For Face Forgery
Detection [52.54404879581527]
本稿では,既存のビデオ分類手法に基づく,シーケンスに基づく効果的な偽造検出フレームワークを提案する。
動作特徴をより表現しやすくするために,別の動作整合ブロックを提案する。
一般的なビデオ分類ネットワークを3つの顔偽造データに対して有望な結果を達成する。
論文 参考訳(メタデータ) (2024-03-08T09:25:48Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Understanding the Challenges and Opportunities of Pose-based Anomaly
Detection [2.924868086534434]
ポーズベースの異常検出(Pose-based anomaly detection)は、ビデオフレームから抽出された人間のポーズを調べることによって、異常な出来事や行動を検出するビデオ分析技術である。
本研究では、ポーズに基づく異常検出の難しさをよりよく理解するために、2つのよく知られたビデオ異常データセットの特徴を分析し、定量化する。
これらの実験は、ポーズベースの異常検出と現在利用可能なデータセットをより理解する上で有益であると考えています。
論文 参考訳(メタデータ) (2023-03-09T18:09:45Z) - Skeletal Video Anomaly Detection using Deep Learning: Survey, Challenges
and Future Directions [3.813649699234981]
本稿では,ビデオから抽出したスケルトンを用いたプライバシー保護型ディープラーニング異常検出手法について検討する。
我々は,ビデオ異常検出のための骨格ベースのアプローチは,ビデオ異常検出のプライバシー保護に有効な代替手段であると結論付けている。
論文 参考訳(メタデータ) (2022-12-31T04:11:25Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Towards A Robust Deepfake Detector:Common Artifact Deepfake Detection
Model [14.308886041268973]
そこで本研究では,コモン・アーティファクト・ディープフェイク検出モデルという新しいディープフェイク検出手法を提案する。
共通アーティファクトの特徴を学習する上での大きな障害は、モデルがアイデンティティ表現機能によって容易に誤解されることである。
本手法は,Implicit Identity Leakageの影響を効果的に低減し,最先端技術よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-10-26T04:02:29Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。