論文の概要: A New Benchmark and Model for Challenging Image Manipulation Detection
- arxiv url: http://arxiv.org/abs/2311.14218v1
- Date: Thu, 23 Nov 2023 22:27:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 16:14:21.491674
- Title: A New Benchmark and Model for Challenging Image Manipulation Detection
- Title(参考訳): 画像マニピュレーション検出のための新しいベンチマークとモデル
- Authors: Zhenfei Zhang, Mingyang Li and Ming-Ching Chang
- Abstract要約: 本稿では,編集ベースおよび圧縮ベースIMD手法の評価を行うための,CIMD(Challenging Image Manipulation Detection)ベンチマークデータセットを提案する。
データセットのイメージは手動で撮影され、高品質なアノテーションで改ざんされた。
さらに,HRNetに基づく新たな2分岐ネットワークモデルを提案する。
- 参考スコア(独自算出の注目度): 22.84284027240684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to detect manipulation in multimedia data is vital in digital
forensics. Existing Image Manipulation Detection (IMD) methods are mainly based
on detecting anomalous features arisen from image editing or double compression
artifacts. All existing IMD techniques encounter challenges when it comes to
detecting small tampered regions from a large image. Moreover,
compression-based IMD approaches face difficulties in cases of double
compression of identical quality factors. To investigate the State-of-The-Art
(SoTA) IMD methods in those challenging conditions, we introduce a new
Challenging Image Manipulation Detection (CIMD) benchmark dataset, which
consists of two subsets, for evaluating editing-based and compression-based IMD
methods, respectively. The dataset images were manually taken and tampered with
high-quality annotations. In addition, we propose a new two-branch network
model based on HRNet that can better detect both the image-editing and
compression artifacts in those challenging conditions. Extensive experiments on
the CIMD benchmark show that our model significantly outperforms SoTA IMD
methods on CIMD.
- Abstract(参考訳): マルチメディアデータの操作を検出する能力は、デジタル法医学において不可欠である。
既存の画像操作検出(IMD)法は主に、画像編集や二重圧縮による異常な特徴の検出に基づいている。
既存のimd技術はすべて、大きな画像から小さな改ざんされた領域を検出する際に困難に直面する。
さらに、同一品質因子の二重圧縮の場合、圧縮に基づくimdアプローチは困難に直面する。
そこで我々は,これらの課題に対処するために,編集ベースおよび圧縮ベースIMD手法をそれぞれ評価するための2つのサブセットから構成されるChallenging Image Manipulation Detection (CIMD)ベンチマークデータセットを提案する。
データセットのイメージは手動で撮影され、高品質なアノテーションで改ざんされた。
さらに,hrnetに基づく新たな2分岐ネットワークモデルを提案し,これらの課題条件において,画像編集と圧縮アーティファクトの両方をよりよく検出する手法を提案する。
CIMDベンチマークの大規模な実験により,本モデルはCIMD上でのSoTA IMD法よりも有意に優れていた。
関連論文リスト
- Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - Robust CLIP-Based Detector for Exposing Diffusion Model-Generated Images [13.089550724738436]
拡散モデル(DM)は画像生成に革命をもたらし、様々な分野にまたがる高品質な画像を生成する。
超現実的画像を作成する能力は、現実的コンテンツと合成的コンテンツを区別する上で大きな課題となる。
この研究は、CLIPモデルによって抽出された画像とテキストの特徴をMLP(Multilayer Perceptron)分類器と統合する堅牢な検出フレームワークを導入する。
論文 参考訳(メタデータ) (2024-04-19T14:30:41Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Detecting and Grounding Multi-Modal Media Manipulation and Beyond [93.08116982163804]
マルチモーダルフェイクメディア(DGM4)の新たな研究課題について述べる。
DGM4は、マルチモーダルメディアの真正性を検出するだけでなく、操作されたコンテンツも検出することを目的としている。
本稿では,異なるモーダル間のきめ細かい相互作用を完全に捉えるために,新しい階層型マルチモーダルマニピュレーションrEasoning tRansformer(HAMMER)を提案する。
論文 参考訳(メタデータ) (2023-09-25T15:05:46Z) - MMNet: Multi-Collaboration and Multi-Supervision Network for Sequential
Deepfake Detection [81.59191603867586]
シークエンシャルディープフェイク検出は、回復のための正しいシーケンスで偽の顔領域を特定することを目的としている。
偽画像の復元には、逆変換を実装するための操作モデルの知識が必要である。
顔画像の空間スケールや逐次順列化を扱うマルチコラボレーション・マルチスーパービジョンネットワーク(MMNet)を提案する。
論文 参考訳(メタデータ) (2023-07-06T02:32:08Z) - ObjectFormer for Image Manipulation Detection and Localization [118.89882740099137]
画像操作の検出とローカライズを行うObjectFormerを提案する。
画像の高周波特徴を抽出し,マルチモーダルパッチの埋め込みとしてRGB特徴と組み合わせる。
各種データセットについて広範な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-28T12:27:34Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Effects of Image Compression on Face Image Manipulation Detection: A
Case Study on Facial Retouching [14.92708078957906]
顔画像操作検出における画像圧縮の影響を分析する。
画像圧縮の影響下での顔面リタッチ検出に関する事例研究を行った。
論文 参考訳(メタデータ) (2021-03-05T13:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。