論文の概要: VideoFACT: Detecting Video Forgeries Using Attention, Scene Context, and
Forensic Traces
- arxiv url: http://arxiv.org/abs/2211.15775v1
- Date: Mon, 28 Nov 2022 21:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 14:52:32.065374
- Title: VideoFACT: Detecting Video Forgeries Using Attention, Scene Context, and
Forensic Traces
- Title(参考訳): videofact: 注意、シーンコンテキスト、法医学的トレースを用いたビデオ偽造の検出
- Authors: Tai D. Nguyen, Shengbang Fang, Matthew C. Stamm
- Abstract要約: 多様なビデオの偽造や操作を検知し、ローカライズできる新しいネットワークを提案する。
以上の結果から,画像鑑定ネットワークはビデオ中の偽コンテンツをほとんど特定できないことが示唆された。
- 参考スコア(独自算出の注目度): 16.961763354456618
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fake videos represent an important misinformation threat. While existing
forensic networks have demonstrated strong performance on image forgeries,
recent results reported on the Adobe VideoSham dataset show that these networks
fail to identify fake content in videos. In this paper, we propose a new
network that is able to detect and localize a wide variety of video forgeries
and manipulations. To overcome challenges that existing networks face when
analyzing videos, our network utilizes both forensic embeddings to capture
traces left by manipulation, context embeddings to exploit forensic traces'
conditional dependencies upon local scene content, and spatial attention
provided by a deep, transformer-based attention mechanism. We create several
new video forgery datasets and use these, along with publicly available data,
to experimentally evaluate our network's performance. These results show that
our proposed network is able to identify a diverse set of video forgeries,
including those not encountered during training. Furthermore, our results
reinforce recent findings that image forensic networks largely fail to identify
fake content in videos.
- Abstract(参考訳): フェイクビデオは重要な誤報の脅威だ。
既存の法医学的ネットワークは画像偽造に強いパフォーマンスを示しているが、最近のAdobe VideoShamデータセットの報告によると、これらのネットワークはビデオ内の偽のコンテンツを識別できない。
本稿では,多種多様なビデオの偽造や操作を検知・ローカライズできる新しいネットワークを提案する。
既存のネットワークがビデオ解析時に直面する課題を克服するため,本ネットワークは,操作によって残される痕跡を捕捉する法医学的埋め込みと,局所的なシーン内容に対する法医学的トレースの条件付き依存関係を利用するコンテキスト埋め込み,深層でトランスフォーマーベースの注意機構による空間的注意の両方を利用する。
いくつかの新しいビデオフォージェリーデータセットを作成し、これらを公開データとともに使用して、ネットワークのパフォーマンスを実験的に評価する。
これらの結果から,提案するネットワークは,訓練中に遭遇しないものを含む多様なビデオ偽造を識別できることがわかった。
さらに,本研究の結果は,画像鑑定ネットワークがビデオ中の偽コンテンツをほとんど特定できないという最近の知見を裏付けるものである。
関連論文リスト
- AVTENet: Audio-Visual Transformer-based Ensemble Network Exploiting
Multiple Experts for Video Deepfake Detection [53.448283629898214]
近年の超現実的なディープフェイクビデオの普及は、オーディオと視覚の偽造の脅威に注意を向けている。
AI生成のフェイクビデオの検出に関するこれまでのほとんどの研究は、視覚的モダリティまたはオーディオ的モダリティのみを使用していた。
音響操作と視覚操作の両方を考慮したAVTENet(Audio-Visual Transformer-based Ensemble Network)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T19:01:26Z) - UVL2: A Unified Framework for Video Tampering Localization [0.0]
悪意のあるビデオの改ざんは、世間の誤解、財産の喪失、法的な論争につながる可能性がある。
本稿では,映像の塗布とスプライシングの検知性能を大幅に向上させる,効果的なビデオ改ざん局面ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-28T03:13:09Z) - Finding Facial Forgery Artifacts with Parts-Based Detectors [73.08584805913813]
顔の個々の部分に焦点を絞った一連の偽造検知システムを設計する。
これらの検出器を用いて、FaceForensics++、Celeb-DF、Facebook Deepfake Detection Challengeデータセットの詳細な実験分析を行う。
論文 参考訳(メタデータ) (2021-09-21T16:18:45Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - FakeBuster: A DeepFakes Detection Tool for Video Conferencing Scenarios [9.10316289334594]
本稿では,ソーシャルメディア上での映像会議および顔操作におけるインポスタ検出のための新しいDeepFake検出器FakeBusterを提案する。
FakeBusterはスタンドアロンのディープラーニングベースのソリューションで、ビデオ会議ベースのミーティング中に他の人のビデオが操作またはスプーフィングされているかどうかをユーザーが検出できます。
論文 参考訳(メタデータ) (2021-01-09T09:06:08Z) - Exposing Deep-faked Videos by Anomalous Co-motion Pattern Detection [23.08488360126588]
本研究では,ディープフェイク映像の露出に特化して設計された完全解釈可能なビデオ法則を提案する。
各種コンテンツによる映像の一般化性を高めるため,ビデオ内の複数の特定の空間的位置の時間的動きをモデル化する。
提案したコモーションパターンは,ディープフェイク映像のデータ圧縮に対して,優れた解釈性と十分なロバスト性を有する。
論文 参考訳(メタデータ) (2020-08-11T16:47:02Z) - Detecting Forged Facial Videos using convolutional neural network [0.0]
我々は,より小さな(少ないパラメータで学習する)畳み込みニューラルネットワーク(CNN)を用いて,偽ビデオ検出のためのデータ駆動型アプローチを提案する。
提案手法の有効性を検証するため,FaceForensicsの公開データセットを用いて,フレームベースとビデオベースの両方の結果を詳細に検討した。
論文 参考訳(メタデータ) (2020-05-17T19:04:59Z) - Multi-Modal Video Forensic Platform for Investigating Post-Terrorist
Attack Scenarios [55.82693757287532]
大規模ビデオ分析プラットフォーム(VAP)は、容疑者を特定し証拠を確保するために法執行機関(LEA)を支援する。
本稿では,視覚・音声分析モジュールを統合し,監視カメラからの情報と目撃者からの映像アップロードを融合するビデオ分析プラットフォームを提案する。
論文 参考訳(メタデータ) (2020-04-02T14:29:27Z) - Convolutional Hierarchical Attention Network for Query-Focused Video
Summarization [74.48782934264094]
本稿では、ユーザのクエリと長いビデオを入力として取り込む、クエリ中心のビデオ要約の課題に対処する。
本稿では,特徴符号化ネットワークとクエリ関連計算モジュールの2つの部分からなる畳み込み階層型注意ネットワーク(CHAN)を提案する。
符号化ネットワークでは,局所的な自己認識機構と問合せ対応のグローバルアテンション機構を備えた畳み込みネットワークを用いて,各ショットの視覚情報を学習する。
論文 参考訳(メタデータ) (2020-01-31T04:30:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。