論文の概要: Detecting Inpainted Video with Frequency Domain Insights
- arxiv url: http://arxiv.org/abs/2409.13976v2
- Date: Sun, 22 Dec 2024 14:03:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:54:23.016975
- Title: Detecting Inpainted Video with Frequency Domain Insights
- Title(参考訳): 周波数領域洞察による塗装映像の検出
- Authors: Quanhui Tang, Jingtao Cao,
- Abstract要約: 本稿では、検出精度を大幅に向上させる周波数領域洞察ネットワーク(FDIN)を提案する。
公開データセットに対する以前の評価は、FDINが最先端のパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Video inpainting enables seamless content removal and replacement within frames, posing ethical and legal risks when misused. To mitigate these risks, detecting manipulated regions in inpainted videos is critical. Previous detection methods often focus solely on the characteristics derived from spatial and temporal dimensions, which limits their effectiveness by overlooking the unique frequency characteristics of different inpainting algorithms. In this paper, we propose the Frequency Domain Insights Network (FDIN), which significantly enhances detection accuracy by incorporating insights from the frequency domain. Our network features an Adaptive Band Selective Response module to discern frequency characteristics specific to various inpainting techniques and a Fast Fourier Convolution-based Attention module for identifying periodic artifacts in inpainted regions. Utilizing 3D ResBlocks for spatiotemporal analysis, FDIN progressively refines detection precision from broad assessments to detailed localization. Experimental evaluations on public datasets demonstrate that FDIN achieves state-of-the-art performance, setting a new benchmark in video inpainting detection.
- Abstract(参考訳): ビデオの塗り絵は、フレーム内のシームレスなコンテンツ削除と置換を可能にし、誤用された場合に倫理的および法的リスクを生じさせる。
これらのリスクを軽減するために、塗布されたビデオの操作された領域を検出することが重要である。
従来の検出方法は、空間的および時間的次元から派生した特性にのみ焦点をあてることが多く、異なる塗装アルゴリズムのユニークな周波数特性を見渡すことで、その効果を制限している。
本稿では、周波数領域からの洞察を取り入れて検出精度を大幅に向上する周波数領域インサイトネットワーク(FDIN)を提案する。
我々のネットワークは、様々な塗装技術に特有の周波数特性を識別するための適応帯域選択応答モジュールと、塗装領域の周期的アーティファクトを特定するための高速フーリエ畳み込みに基づくアテンションモジュールを備えている。
時空間解析に3D ResBlocksを用いることで、FDINは広範囲な評価から詳細なローカライゼーションまで、検出精度を段階的に改善する。
公開データセットに対する実験的評価は、FDINが最先端のパフォーマンスを達成し、ビデオインペイント検出に新たなベンチマークを設定することを示す。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - Frequency-Aware Deepfake Detection: Improving Generalizability through
Frequency Space Learning [81.98675881423131]
この研究は、目に見えないディープフェイク画像を効果的に識別できるユニバーサルディープフェイク検出器を開発するという課題に対処する。
既存の周波数ベースのパラダイムは、偽造検出のためにGANパイプラインのアップサンプリング中に導入された周波数レベルのアーティファクトに依存している。
本稿では、周波数領域学習を中心にしたFreqNetと呼ばれる新しい周波数認識手法を導入し、ディープフェイク検出器の一般化性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-03-12T01:28:00Z) - FS-BAND: A Frequency-Sensitive Banding Detector [55.59101150019851]
バンディング・アーティファクト(Banding artifact)は、階段のような輪郭(contour)として知られ、圧縮や伝達などで発生する一般的な品質の不快さである。
周波数感度バンディング検出器 (FS-BAND) と呼ばれる,帯状アーティファクトを捕捉・評価するための非参照帯状検出モデルを提案する。
実験結果から,FS-BAND法は画像品質評価(IQA)手法よりもバンドリング分類タスクの精度が高い結果を得た。
論文 参考訳(メタデータ) (2023-11-30T03:20:42Z) - Multimodal Graph Learning for Deepfake Detection [10.077496841634135]
既存のディープフェイク検出器は、堅牢性と一般化を達成する上でいくつかの課題に直面している。
本稿では,マルチモーダルグラフ学習(MGL)という新しいフレームワークを提案する。
提案手法は,ディープフェイク検出のための特徴を効果的に識別し,活用することを目的としている。
論文 参考訳(メタデータ) (2022-09-12T17:17:49Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Adaptive Frequency Learning in Two-branch Face Forgery Detection [66.91715092251258]
本稿では、AFDと呼ばれる2分岐検出フレームワークにおいて、周波数情報を適応的に学習する手法を提案する。
我々は、固定周波数変換からネットワークを解放し、データおよびタスク依存の変換層でより良いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-27T14:25:52Z) - Deep Video Inpainting Detection [95.36819088529622]
映像インペインティング検出は、映像内のインペイント領域を空間的および時間的にローカライズする。
VIDNet, Video Inpainting Detection Networkは、注意モジュールを備えた2ストリームエンコーダデコーダアーキテクチャを含む。
論文 参考訳(メタデータ) (2021-01-26T20:53:49Z) - Fake Visual Content Detection Using Two-Stream Convolutional Neural
Networks [14.781702606707642]
周波数領域と空間領域の特徴を補完する2ストリーム畳み込みニューラルネットワークアーキテクチャであるTwoStreamNetを提案する。
提案手法は, 現状の偽コンテンツ検出装置に比べ, 大幅に性能が向上した。
論文 参考訳(メタデータ) (2021-01-03T18:05:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。