論文の概要: Image Copy-Move Forgery Detection via Deep PatchMatch and Pairwise Ranking Learning
- arxiv url: http://arxiv.org/abs/2404.17310v1
- Date: Fri, 26 Apr 2024 10:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 13:24:47.114070
- Title: Image Copy-Move Forgery Detection via Deep PatchMatch and Pairwise Ranking Learning
- Title(参考訳): ディープパッチマッチとペアワイズランキング学習による画像コピー・モーブ偽造検出
- Authors: Yuanman Li, Yingjie He, Changsheng Chen, Li Dong, Bin Li, Jiantao Zhou, Xia Li,
- Abstract要約: 本研究では,従来の学習手法と深層学習手法の強みを統合した,エンドツーエンドのCMFDフレームワークを開発した。
既存のディープモデルとは異なり,提案手法では,高分解能スケールから抽出した特徴を利用して,明示的で信頼性の高いポイント・ツー・ポイントマッチングを求める。
このフレームワークは、ポイント・ツー・ポイントマッチングの強い先行性を活用することで、微妙な違いを識別し、ソースとターゲットの領域を効果的に識別することができる。
- 参考スコア(独自算出の注目度): 39.85737063875394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep learning algorithms have shown impressive progress in image copy-move forgery detection (CMFD). However, these algorithms lack generalizability in practical scenarios where the copied regions are not present in the training images, or the cloned regions are part of the background. Additionally, these algorithms utilize convolution operations to distinguish source and target regions, leading to unsatisfactory results when the target regions blend well with the background. To address these limitations, this study proposes a novel end-to-end CMFD framework that integrates the strengths of conventional and deep learning methods. Specifically, the study develops a deep cross-scale PatchMatch (PM) method that is customized for CMFD to locate copy-move regions. Unlike existing deep models, our approach utilizes features extracted from high-resolution scales to seek explicit and reliable point-to-point matching between source and target regions. Furthermore, we propose a novel pairwise rank learning framework to separate source and target regions. By leveraging the strong prior of point-to-point matches, the framework can identify subtle differences and effectively discriminate between source and target regions, even when the target regions blend well with the background. Our framework is fully differentiable and can be trained end-to-end. Comprehensive experimental results highlight the remarkable generalizability of our scheme across various copy-move scenarios, significantly outperforming existing methods.
- Abstract(参考訳): 近年のディープラーニングアルゴリズムの進歩は、画像コピー・モーブ偽造検出(CMFD)の顕著な進歩を示している。
しかし、これらのアルゴリズムは、訓練画像にコピーされた領域が存在しない、あるいはクローンされた領域が背景に存在しない、実践的なシナリオにおいて一般化性に欠ける。
さらに、これらのアルゴリズムは畳み込み操作を利用してソース領域とターゲット領域を区別する。
そこで本研究では,従来の学習手法と深層学習手法の長所を統合した,エンドツーエンドのCMFDフレームワークを提案する。
具体的には、CMFDがコピー-ムーブ領域を特定するためにカスタマイズした、深いクロススケールなPatchMatch(PM)手法を開発した。
既存のディープモデルとは異なり,提案手法では,高分解能スケールから抽出した特徴を利用して,ソース領域とターゲット領域の明示的かつ信頼性の高いポイント・ツー・ポイントマッチングを求める。
さらに、ソース領域とターゲット領域を分離する新しいペアワイドなランク学習フレームワークを提案する。
このフレームワークは、ポイント・ツー・ポイントマッチングの強い先行性を活用することで、微妙な違いを識別し、ターゲット領域が背景とうまく混在している場合でも、ソースとターゲット領域を効果的に識別することができる。
私たちのフレームワークは完全に差別化可能で、エンドツーエンドでトレーニングすることができます。
総合的な実験結果から,提案手法は様々なコピー・モーブ・シナリオにまたがる顕著な一般化性を示し,既存手法よりも優れていた。
関連論文リスト
- Image Copy-Move Forgery Detection via Deep Cross-Scale PatchMatch [17.67927506844985]
本稿では,従来の手法と深層手法を融合した新しいエンドツーエンドCMFDフレームワークを提案する。
具体的には、コピー-ムーブ領域をローカライズするCMFDに適した、ディープ・クロススケール・パッチマッチ法を設計する。
既存のディープモデルとは対照的に,提案手法は,ソース領域とターゲット領域との明示的かつ信頼性の高いポイント・ツー・ポイントマッチングを実現することを目的としている。
論文 参考訳(メタデータ) (2023-08-08T11:23:56Z) - Towards Generalizable Deepfake Detection by Primary Region
Regularization [52.41801719896089]
本稿では,新しい正規化の観点から一般化能力を高める。
本手法は, 一次領域マップの静的な位置決めと, 一次領域マスクの動的利用の2段階からなる。
5つのバックボーンを持つDFDC,DF-1.0,Celeb-DFの3種類のディープフェイクデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-07-24T05:43:34Z) - Point-Level Region Contrast for Object Detection Pre-Training [147.47349344401806]
本稿では,物体検出作業のための自己教師付き事前学習手法である点レベル領域コントラストを提案する。
提案手法は,異なる領域から個々の点対を直接抽出することにより,コントラスト学習を行う。
領域ごとの集約表現と比較すると,入力領域の品質の変化に対して,我々のアプローチはより堅牢である。
論文 参考訳(メタデータ) (2022-02-09T18:56:41Z) - Domain Adaptive Semantic Segmentation with Regional Contrastive
Consistency Regularization [19.279884432843822]
本稿では,領域適応型セマンティックセマンティックセグメンテーションのための局所コントラスト整合正規化(RCCR)と呼ばれる,新しいエンドツーエンドのトレーニング可能なアプローチを提案する。
私たちの中核となる考え方は、異なる画像の同じ位置から抽出された類似の地域的特徴を取り除き、その一方、2つの画像の異なる位置から特徴を分離することです。
論文 参考訳(メタデータ) (2021-10-11T11:45:00Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z) - Attentive CutMix: An Enhanced Data Augmentation Approach for Deep
Learning Based Image Classification [58.20132466198622]
そこで我々は,CutMixに基づく自然拡張拡張戦略であるAttentive CutMixを提案する。
各トレーニングイテレーションにおいて、特徴抽出器から中間注意マップに基づいて最も記述性の高い領域を選択する。
提案手法は単純かつ有効であり,実装が容易であり,ベースラインを大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-03-29T15:01:05Z) - Cross-domain Object Detection through Coarse-to-Fine Feature Adaptation [62.29076080124199]
本稿では,クロスドメインオブジェクト検出のための特徴適応手法を提案する。
粗粒度では、アテンション機構を採用して前景領域を抽出し、その辺縁分布に応じて整列する。
粒度の細かい段階では、同じカテゴリのグローバルプロトタイプと異なるドメインとの距離を最小化することにより、前景の条件分布アライメントを行う。
論文 参考訳(メタデータ) (2020-03-23T13:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。