論文の概要: Noise Doesn't Lie: Towards Universal Detection of Deep Inpainting
- arxiv url: http://arxiv.org/abs/2106.01532v1
- Date: Thu, 3 Jun 2021 01:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:10:38.186110
- Title: Noise Doesn't Lie: Towards Universal Detection of Deep Inpainting
- Title(参考訳): ノイズは嘘ではない:深層塗装の普遍的検出に向けて
- Authors: Ang Li, Qiuhong Ke, Xingjun Ma, Haiqin Weng, Zhiyuan Zong, Feng Xue,
Rui Zhang
- Abstract要約: 本研究は, ディープ・インパインティングの普遍的検出に向けた最初の試みであり, 検出ネットワークの一般化を図っている。
提案手法は,既存の検出手法を大きなマージンで上回り,未確認の深層塗膜技術に最適化する。
- 参考スコア(独自算出の注目度): 42.189768203036394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep image inpainting aims to restore damaged or missing regions in an image
with realistic contents. While having a wide range of applications such as
object removal and image recovery, deep inpainting techniques also have the
risk of being manipulated for image forgery. A promising countermeasure against
such forgeries is deep inpainting detection, which aims to locate the inpainted
regions in an image. In this paper, we make the first attempt towards universal
detection of deep inpainting, where the detection network can generalize well
when detecting different deep inpainting methods. To this end, we first propose
a novel data generation approach to generate a universal training dataset,
which imitates the noise discrepancies exist in real versus inpainted image
contents to train universal detectors. We then design a Noise-Image
Cross-fusion Network (NIX-Net) to effectively exploit the discriminative
information contained in both the images and their noise patterns. We
empirically show, on multiple benchmark datasets, that our approach outperforms
existing detection methods by a large margin and generalize well to unseen deep
inpainting techniques. Our universal training dataset can also significantly
boost the generalizability of existing detection methods.
- Abstract(参考訳): 深部イメージインペインティングは、リアルな内容のイメージの損傷や欠落した領域を復元することを目的としている。
オブジェクトの削除や画像の復元といった幅広いアプリケーションを持つ一方で、深い塗り込み技術は、画像偽造のために操作されるリスクも持つ。
このような偽造に対して有望な対策は、画像中の塗装された領域を見つけることを目的とした深い塗装検出である。
本稿では,ディープインパインティングの普遍的検出に向けた最初の試みとして,異なるディープインパインティング方法を検出する際に,検出ネットワークがうまく一般化できる方法を提案する。
この目的のために,まず,実画像と塗布画像のノイズの相違を模倣し,ユニバーサルディテクターを訓練するユニバーサルトレーニングデータセットを作成する新しいデータ生成手法を提案する。
次に,ノイズ画像クロスフュージョンネットワーク(nix-net)を設計し,画像と雑音パターンの両方に含まれる識別情報を効果的に活用する。
複数のベンチマークデータセットにおいて,提案手法が既存の検出手法を大きなマージンで上回り,未発見の深層塗装技術に十分一般化していることを実証的に示す。
当社のユニバーサルトレーニングデータセットは,既存の検出方法の一般化性を大幅に向上させる可能性もあります。
関連論文リスト
- Dense Feature Interaction Network for Image Inpainting Localization [28.028361409524457]
画像の悪質な操作において、画像内容の隠蔽や改ざんに使用することができる。
既存の手法は主に基本的なエンコーダ・デコーダ構造に依存しており、多くの場合、偽陽性が多くなる。
本稿では,Dense Feature Interaction Network (DeFI-Net) に基づく新しい塗り絵検出手法について述べる。
論文 参考訳(メタデータ) (2024-08-05T02:35:13Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - TruFor: Leveraging all-round clues for trustworthy image forgery
detection and localization [17.270110456445806]
TruForは、さまざまなイメージ操作方法に適用可能な、法医学的なフレームワークである。
変換器をベースとした融合アーキテクチャにより,高レベルのトレースと低レベルのトレースの両方を抽出する。
当社の手法は,安価なフェイクとディープフェイク操作の両方を確実に検出し,ローカライズすることができる。
論文 参考訳(メタデータ) (2022-12-21T11:49:43Z) - Inpainting Transformer for Anomaly Detection [0.0]
Inpainting Transformer(InTra)は、多数のイメージパッチにカバーパッチを塗布するように訓練されている。
InTraは、検出とローカライゼーションのためのMVTec ADデータセットの最先端結果よりも優れている。
論文 参考訳(メタデータ) (2021-04-28T17:27:44Z) - GIID-Net: Generalizable Image Inpainting Detection via Neural
Architecture Search and Attention [19.599993572921065]
画像インペイントツールの悪意ある使用により、画像データの信頼性に対する脅威が増大した。
偽造防止のために,giid-net(end-to-end generalizable image inpainting detection network)を提案する。
提案するgiid-netは,拡張ブロック,抽出ブロック,決定ブロックの3つのサブブロックからなる。
論文 参考訳(メタデータ) (2021-01-19T02:29:40Z) - Image inpainting using frequency domain priors [35.54138025375951]
本稿では,周波数領域情報を用いた新しい画像塗装手法を提案する。
提案手法について,CelebA,Paris Streetview,DTDテクスチャデータセットを用いて検討した。
論文 参考訳(メタデータ) (2020-12-03T11:08:13Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。