論文の概要: SafePaint: Anti-forensic Image Inpainting with Domain Adaptation
- arxiv url: http://arxiv.org/abs/2404.18136v1
- Date: Sun, 28 Apr 2024 10:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 17:43:14.535824
- Title: SafePaint: Anti-forensic Image Inpainting with Domain Adaptation
- Title(参考訳): SafePaint: ドメイン適応による反法医学的イメージの塗布
- Authors: Dunyun Chen, Xin Liao, Xiaoshuai Wu, Shiwei Chen,
- Abstract要約: 本稿では, SafePaint と名づけられた反法医学的イメージパインティングのためのエンドツーエンドトレーニングフレームワークを提案する。
提案手法は,他の方法では利用できない反法医学的能力を提供しながら,既存の画像インペイント手法に匹敵する結果が得られる。
- 参考スコア(独自算出の注目度): 11.572696442033749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing image inpainting methods have achieved remarkable accomplishments in generating visually appealing results, often accompanied by a trend toward creating more intricate structural textures. However, while these models excel at creating more realistic image content, they often leave noticeable traces of tampering, posing a significant threat to security. In this work, we take the anti-forensic capabilities into consideration, firstly proposing an end-to-end training framework for anti-forensic image inpainting named SafePaint. Specifically, we innovatively formulated image inpainting as two major tasks: semantically plausible content completion and region-wise optimization. The former is similar to current inpainting methods that aim to restore the missing regions of corrupted images. The latter, through domain adaptation, endeavors to reconcile the discrepancies between the inpainted region and the unaltered area to achieve anti-forensic goals. Through comprehensive theoretical analysis, we validate the effectiveness of domain adaptation for anti-forensic performance. Furthermore, we meticulously crafted a region-wise separated attention (RWSA) module, which not only aligns with our objective of anti-forensics but also enhances the performance of the model. Extensive qualitative and quantitative evaluations show our approach achieves comparable results to existing image inpainting methods while offering anti-forensic capabilities not available in other methods.
- Abstract(参考訳): 既存の画像塗装法は、しばしばより複雑な構造的テクスチャを生み出す傾向に伴って、視覚的に魅力的な結果を生み出すことで、優れた成果を上げている。
しかし、これらのモデルはよりリアルな画像コンテンツを作るのに優れていますが、しばしば目立った改ざんの痕跡を残し、セキュリティに重大な脅威をもたらします。
本研究は,まず, SafePaint と名づけられた反法医学的イメージペイントのためのエンドツーエンドのトレーニングフレームワークを提案することで, 反法医学的能力を考慮に入れた。
具体的には,画像のインパインティングを,意味論的に妥当なコンテンツ補完と領域最適化の2つの主要なタスクとして,革新的に定式化した。
前者は、破損した画像の欠落した領域を復元することを目的とした、現在の塗装法と似ている。
後者は、ドメイン適応を通じて、塗装された地域と修正されていない地域との間の不一致を和らげて、反法学的な目標を達成する試みである。
包括的理論的解析を通じて,抗法医学的パフォーマンスに対するドメイン適応の有効性を検証した。
さらに、我々は、我々の反法医学の目的と整合するだけでなく、モデルの性能を向上させるような、地域的に分離された注意(RWSA)モジュールを慎重に構築した。
広範に質的,定量的な評価を行った結果,既存の画像塗布法に匹敵する結果が得られた。
関連論文リスト
- Dense Feature Interaction Network for Image Inpainting Localization [28.028361409524457]
画像の悪質な操作において、画像内容の隠蔽や改ざんに使用することができる。
既存の手法は主に基本的なエンコーダ・デコーダ構造に依存しており、多くの場合、偽陽性が多くなる。
本稿では,Dense Feature Interaction Network (DeFI-Net) に基づく新しい塗り絵検出手法について述べる。
論文 参考訳(メタデータ) (2024-08-05T02:35:13Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - Fill in the ____ (a Diffusion-based Image Inpainting Pipeline) [0.0]
塗り絵は、画像を撮り、失った、または故意に隠された部分を生成する過程である。
現代の塗装技術は、有能な完成物を生成する際、顕著な能力を示している。
既存のモデルにおける重要なギャップに対処し、何が正確に生成されたかをプロンプトし制御する能力に焦点を当てる。
論文 参考訳(メタデータ) (2024-03-24T05:26:55Z) - BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - GRIG: Few-Shot Generative Residual Image Inpainting [27.252855062283825]
そこで本研究では,高画質な残像塗装法を新たに提案する。
中心となる考え方は、特徴抽出のために畳み込みニューラルネットワーク(CNN)を組み込んだ反復的残留推論手法を提案することである。
また, 忠実なテクスチャと詳細な外観を創出するための, フォージェリーパッチ対逆訓練戦略を提案する。
論文 参考訳(メタデータ) (2023-04-24T12:19:06Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z) - An End-to-End Approach for Seam Carving Detection using Deep Neural
Networks [0.0]
シーム・カービング(Seam Carving)は、画像形状ではなく、その内容に基づいて画像の縮小と拡大の両面を縮小する計算方法である。
本稿では,自動シーム彫刻検出の課題に対処するためのエンドツーエンドアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-05T12:53:55Z) - Beyond ImageNet Attack: Towards Crafting Adversarial Examples for
Black-box Domains [80.11169390071869]
敵対的な例は、転送可能な性質のため、ディープニューラルネットワークに深刻な脅威をもたらしている。
ブラックボックス領域への転送可能性を調べるために,Beyond ImageNet Attack (BIA)を提案する。
提案手法は, 最先端手法を最大7.71%(粗粒領域)と25.91%(細粒領域)で平均的に上回っている。
論文 参考訳(メタデータ) (2022-01-27T14:04:27Z) - Delving into Deep Image Prior for Adversarial Defense: A Novel
Reconstruction-based Defense Framework [34.75025893777763]
本研究は, より深いイメージを掘り下げることによる, 新規かつ効果的な再構築型防御フレームワークを提案する。
提案手法は, モデル決定過程を分析し, 明示的に記述する。
実験により,提案手法は,ホワイトボックス攻撃とディフェンスアウェア攻撃の両面において,既存の最先端の再構築手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-07-31T08:49:17Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。