論文の概要: GIID-Net: Generalizable Image Inpainting Detection via Neural
Architecture Search and Attention
- arxiv url: http://arxiv.org/abs/2101.07419v2
- Date: Fri, 29 Jan 2021 05:44:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:32:46.713851
- Title: GIID-Net: Generalizable Image Inpainting Detection via Neural
Architecture Search and Attention
- Title(参考訳): GIID-Net:ニューラル・アーキテクチャ・サーチとアテンションによる一般化可能な画像インペインティング検出
- Authors: Haiwei Wu and Jiantao Zhou
- Abstract要約: 画像インペイントツールの悪意ある使用により、画像データの信頼性に対する脅威が増大した。
偽造防止のために,giid-net(end-to-end generalizable image inpainting detection network)を提案する。
提案するgiid-netは,拡張ブロック,抽出ブロック,決定ブロックの3つのサブブロックからなる。
- 参考スコア(独自算出の注目度): 19.599993572921065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) has demonstrated its powerful capabilities in the field of
image inpainting, which could produce visually plausible results. Meanwhile,
the malicious use of advanced image inpainting tools (e.g. removing key objects
to report fake news) has led to increasing threats to the reliability of image
data. To fight against the inpainting forgeries, in this work, we propose a
novel end-to-end Generalizable Image Inpainting Detection Network (GIID-Net),
to detect the inpainted regions at pixel accuracy. The proposed GIID-Net
consists of three sub-blocks: the enhancement block, the extraction block and
the decision block. Specifically, the enhancement block aims to enhance the
inpainting traces by using hierarchically combined special layers. The
extraction block, automatically designed by Neural Architecture Search (NAS)
algorithm, is targeted to extract features for the actual inpainting detection
tasks. In order to further optimize the extracted latent features, we integrate
global and local attention modules in the decision block, where the global
attention reduces the intra-class differences by measuring the similarity of
global features, while the local attention strengthens the consistency of local
features. Furthermore, we thoroughly study the generalizability of our
GIID-Net, and find that different training data could result in vastly
different generalization capability. Extensive experimental results are
presented to validate the superiority of the proposed GIID-Net, compared with
the state-of-the-art competitors. Our results would suggest that common
artifacts are shared across diverse image inpainting methods. Finally, we build
a public inpainting dataset of 10K image pairs for the future research in this
area.
- Abstract(参考訳): 深層学習(DL)は、画像インペイントの分野でその強力な能力を示しており、視覚的に妥当な結果をもたらす可能性がある。
一方、高度な画像インペイントツールの悪意ある使用(例)。
フェイクニュースを報告するための重要なオブジェクトを削除する) 画像データの信頼性に対する脅威が増大している。
本研究は, 塗布された領域を画素精度で検出するGIID-Net(General-to-end Generalizable Image Inpainting Detection Network)を提案する。
提案するgiid-netは,拡張ブロック,抽出ブロック,決定ブロックの3つのサブブロックからなる。
具体的には, この拡張ブロックは, 階層的に結合した特殊層を用いることで, 塗工跡の増大を図っている。
ニューラルネットワーク探索(NAS)アルゴリズムによって自動的に設計される抽出ブロックは、実際の塗装検出タスクの特徴を抽出することを目的としている。
抽出された潜在機能をさらに最適化するために,グローバル・アテンションモジュールとローカルアテンションモジュールを決定ブロックに統合し,グローバル・アテンションはグローバル・アテンションの類似度を測定することによってクラス内差異を低減し,ローカル・アテンションはローカル・アテンションの一貫性を強化する。
さらに,giid-netの一般化可能性についても徹底的に検討し,異なるトレーニングデータによって非常に異なる一般化能力が得られることを見出した。
提案するgiid-netの優位性を検証するために,最先端の競合製品と比較実験を行った。
以上の結果から,共通アーティファクトは多彩な画像塗布法で共有されていることが示唆された。
最後に、この領域における将来の研究のために、10Kイメージペアのパブリックな塗装データセットを構築します。
関連論文リスト
- Dense Feature Interaction Network for Image Inpainting Localization [28.028361409524457]
画像の悪質な操作において、画像内容の隠蔽や改ざんに使用することができる。
既存の手法は主に基本的なエンコーダ・デコーダ構造に依存しており、多くの場合、偽陽性が多くなる。
本稿では,Dense Feature Interaction Network (DeFI-Net) に基づく新しい塗り絵検出手法について述べる。
論文 参考訳(メタデータ) (2024-08-05T02:35:13Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Progressive with Purpose: Guiding Progressive Inpainting DNNs through
Context and Structure [0.0]
本稿では,処理された画像の構造的・文脈的整合性を維持する新しい塗装ネットワークを提案する。
ガウスピラミッドとラプラシアピラミッドに触発されたこのネットワークのコアは、GLEと呼ばれる特徴抽出モジュールである。
ベンチマーク実験により, 提案手法は, 多くの最先端の塗装アルゴリズムに対して, 性能の向上を図っている。
論文 参考訳(メタデータ) (2022-09-21T02:15:02Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Noise Doesn't Lie: Towards Universal Detection of Deep Inpainting [42.189768203036394]
本研究は, ディープ・インパインティングの普遍的検出に向けた最初の試みであり, 検出ネットワークの一般化を図っている。
提案手法は,既存の検出手法を大きなマージンで上回り,未確認の深層塗膜技術に最適化する。
論文 参考訳(メタデータ) (2021-06-03T01:29:29Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。