論文の概要: Self-Adversarial Training incorporating Forgery Attention for Image
Forgery Localization
- arxiv url: http://arxiv.org/abs/2107.02434v1
- Date: Tue, 6 Jul 2021 07:20:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-07-07 13:40:14.368383
- Title: Self-Adversarial Training incorporating Forgery Attention for Image
Forgery Localization
- Title(参考訳): 画像偽造ローカライズのための偽造注意を考慮したセルフ・アドバーサルトレーニング
- Authors: Long Zhuo and Shunquan Tan and Bin Li and Jiwu Huang
- Abstract要約: 本稿では、より堅牢なパフォーマンスを実現するために、動的にトレーニングデータを拡大するセルフアドバイサルトレーニング戦略を提案する。
我々は、粗大なネットワークを利用して、元の領域と改ざんされた領域のノイズの不整合を高める。
提案アルゴリズムは,異なるベンチマークデータセットにおいて,最先端の手法よりも明確なマージンで,着実に性能を向上する。
- 参考スコア(独自算出の注目度): 40.622844703837046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image editing techniques enable people to modify the content of an image
without leaving visual traces and thus may cause serious security risks. Hence
the detection and localization of these forgeries become quite necessary and
challenging. Furthermore, unlike other tasks with extensive data, there is
usually a lack of annotated forged images for training due to annotation
difficulties. In this paper, we propose a self-adversarial training strategy
and a reliable coarse-to-fine network that utilizes a self-attention mechanism
to localize forged regions in forgery images. The self-attention module is
based on a Channel-Wise High Pass Filter block (CW-HPF). CW-HPF leverages
inter-channel relationships of features and extracts noise features by high
pass filters. Based on the CW-HPF, a self-attention mechanism, called forgery
attention, is proposed to capture rich contextual dependencies of intrinsic
inconsistency extracted from tampered regions. Specifically, we append two
types of attention modules on top of CW-HPF respectively to model internal
interdependencies in spatial dimension and external dependencies among
channels. We exploit a coarse-to-fine network to enhance the noise
inconsistency between original and tampered regions. More importantly, to
address the issue of insufficient training data, we design a self-adversarial
training strategy that expands training data dynamically to achieve more robust
performance. Specifically, in each training iteration, we perform adversarial
attacks against our network to generate adversarial examples and train our
model on them. Extensive experimental results demonstrate that our proposed
algorithm steadily outperforms state-of-the-art methods by a clear margin in
different benchmark datasets.
- Abstract(参考訳): 画像編集技術により、視覚的痕跡を残すことなく画像の内容を変更することができ、重大なセキュリティリスクを引き起こす可能性がある。
したがって、これらの偽造物の検出と位置決めは極めて必要で困難である。
さらに、広範囲なデータを持つ他のタスクとは異なり、アノテーションの難しさのためにトレーニング用の注釈付きイメージが欠如していることが多い。
本稿では,偽造画像における偽造領域のローカライズにセルフアテンション機構を利用する,セルフアドバーサルトレーニング戦略と信頼性の高い粗粒間ネットワークを提案する。
自己保持モジュールはCW-HPF(Channel-Wise High Pass Filter block)に基づいている。
CW-HPFは、チャネル間の特徴関係を活用し、ハイパスフィルタによりノイズ特徴を抽出する。
The CW-HPF, a self-attention mechanism, called forgery attention, was proposed to capture rich contextual dependencies of intmpered region。
具体的には,CW-HPF上に2種類のアテンションモジュールを付加し,チャネル間の空間的相互依存性と外部依存性をモデル化する。
我々は、粗大なネットワークを利用して、元の領域と改ざんされた領域のノイズの不整合を高める。
さらに, トレーニングデータ不足の問題に対処するために, 学習データを動的に拡張し, より堅牢な性能を実現するセルフ・アドバーサル・トレーニング戦略を考案する。
具体的には、トレーニングイテレーション毎に、ネットワークに対して敵の攻撃を行い、敵の例を生成し、モデルをトレーニングします。
大規模な実験結果から,提案アルゴリズムは,異なるベンチマークデータセットにおいて,最先端の手法よりも顕著に優れていた。
関連論文リスト
- Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Learning to Generate Training Datasets for Robust Semantic Segmentation [37.9308918593436]
セマンティックセグメンテーション手法の堅牢性を改善するための新しい手法を提案する。
我々は,現実的で可視な摂動画像を生成するために,新しい条件付き生成対向ネットワークであるRobustaを設計した。
我々の結果は、このアプローチが安全クリティカルなアプリケーションに有用である可能性を示唆している。
論文 参考訳(メタデータ) (2023-08-01T10:02:26Z) - Unsupervised Domain-Specific Deblurring using Scale-Specific Attention [0.25797036386508543]
スケール適応型アテンションモジュール (SAAM) を用いた教師なしドメイン固有のデブロアリングを提案する。
我々のネットワークはトレーニングのために教師付きペアを必要とせず、デブロアリング機構は主に敵の損失によって導かれる。
異なるアブレーション研究により、我々の粗粒度機構は、教師なしモデルよりも優れており、SAAMは文学で使用される注意モデルと比較して、より優れた参画が可能であることが示されている。
論文 参考訳(メタデータ) (2021-12-12T07:47:45Z) - Learnable Multi-level Frequency Decomposition and Hierarchical Attention
Mechanism for Generalized Face Presentation Attack Detection [7.324459578044212]
顔提示攻撃検知(PAD)は多くの注目を集めており、顔認識システムを保護する上で重要な役割を果たしている。
両ストリーム畳み込みニューラルネットワーク(CNN)フレームワークを提案する。
ステップワイドアブレーション研究において提案したPAD法の設計を実証した。
論文 参考訳(メタデータ) (2021-09-16T13:06:43Z) - Self-paced and self-consistent co-training for semi-supervised image
segmentation [23.100800154116627]
注釈付きデータが不足している場合のイメージセグメンテーションに有効な手法として、ディープコトレーニングが提案されている。
本稿では, 半教師付きセグメンテーションの既存手法を, 自己完結型・自己整合型協調学習法により改良する。
論文 参考訳(メタデータ) (2020-10-31T17:41:03Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Attentive CutMix: An Enhanced Data Augmentation Approach for Deep
Learning Based Image Classification [58.20132466198622]
そこで我々は,CutMixに基づく自然拡張拡張戦略であるAttentive CutMixを提案する。
各トレーニングイテレーションにおいて、特徴抽出器から中間注意マップに基づいて最も記述性の高い領域を選択する。
提案手法は単純かつ有効であり,実装が容易であり,ベースラインを大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-03-29T15:01:05Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。