論文の概要: Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2209.03322v1
- Date: Wed, 7 Sep 2022 17:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:41:55.552390
- Title: Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection
- Title(参考訳): コンピュータ画像検出のための深部テクスチャと高周波特性の合同学習
- Authors: Qiang Xu, Shan Jia, Xinghao Jiang, Tanfeng Sun, Zhe Wang, Hong Yan
- Abstract要約: 本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
- 参考スコア(独自算出の注目度): 24.098604827919203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distinguishing between computer-generated (CG) and natural photographic (PG)
images is of great importance to verify the authenticity and originality of
digital images. However, the recent cutting-edge generation methods enable high
qualities of synthesis in CG images, which makes this challenging task even
trickier. To address this issue, a joint learning strategy with deep texture
and high-frequency features for CG image detection is proposed. We first
formulate and deeply analyze the different acquisition processes of CG and PG
images. Based on the finding that multiple different modules in image
acquisition will lead to different sensitivity inconsistencies to the
convolutional neural network (CNN)-based rendering in images, we propose a deep
texture rendering module for texture difference enhancement and discriminative
texture representation. Specifically, the semantic segmentation map is
generated to guide the affine transformation operation, which is used to
recover the texture in different regions of the input image. Then, the
combination of the original image and the high-frequency components of the
original and rendered images are fed into a multi-branch neural network
equipped with attention mechanisms, which refines intermediate features and
facilitates trace exploration in spatial and channel dimensions respectively.
Extensive experiments on two public datasets and a newly constructed dataset
with more realistic and diverse images show that the proposed approach
outperforms existing methods in the field by a clear margin. Besides, results
also demonstrate the detection robustness and generalization ability of the
proposed approach to postprocessing operations and generative adversarial
network (GAN) generated images.
- Abstract(参考訳): コンピュータ生成画像(CG)と自然写真画像(PG)の識別は,デジタル画像の真正性や独創性を検証する上で非常に重要である。
しかし,近年の切削刃生成法ではcg画像の高品質な合成が可能となり,課題がさらに複雑になった。
この問題に対処するために,CG画像検出のための深いテクスチャと高周波特徴を用いた共同学習戦略を提案する。
まず,CG画像とPG画像の異なる取得過程を定式化し,より深く解析する。
画像取得における複数の異なるモジュールが、画像の畳み込みニューラルネットワーク(cnn)ベースのレンダリングと異なる感度の不整合をもたらすことを見出し、テクスチャ差分強調と識別テクスチャ表現のための深層テクスチャレンダリングモジュールを提案する。
具体的には、入力画像の異なる領域のテクスチャを復元するために使用されるアフィン変換操作を導くために意味セグメンテーションマップを生成する。
そして、オリジナル画像と、オリジナル画像およびレンダリング画像の高周波成分の組み合わせを、注目機構を備えたマルチブランチニューラルネットワークに供給し、中間的特徴を洗練し、それぞれ空間的及びチャネル的寸法のトレース探索を容易にする。
2つの公開データセットと、よりリアルで多様なイメージを持つ新しいデータセットに関する広範囲な実験により、提案手法がこの分野の既存の手法を明確なマージンで上回っていることが示されている。
さらに,提案手法による後処理操作やGAN(Generative Adversarial Network)生成画像に対するロバスト性や一般化性も示す。
関連論文リスト
- Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Research on Image Super-Resolution Reconstruction Mechanism based on Convolutional Neural Network [8.739451985459638]
超解像アルゴリズムは、同一シーンから撮影された1つ以上の低解像度画像を高解像度画像に変換する。
再構成過程における画像の特徴抽出と非線形マッピング手法は,既存のアルゴリズムでは依然として困難である。
目的は、高解像度の画像から高品質で高解像度の画像を復元することである。
論文 参考訳(メタデータ) (2024-07-18T06:50:39Z) - An efficient dual-branch framework via implicit self-texture enhancement for arbitrary-scale histopathology image super-resolution [18.881480825169053]
Inlicit Self-Texture Enhancement-based dual-branch framework (ISTE) を提案する。
ISTEは、様々なスケーリング要因にわたる既存の固定スケールおよび任意のスケールのSRアルゴリズムより優れている。
論文 参考訳(メタデータ) (2024-01-28T10:00:45Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [63.54342601757723]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - A Robust Approach Towards Distinguishing Natural and Computer Generated
Images using Multi-Colorspace fused and Enriched Vision Transformer [0.0]
本研究は,自然画像とコンピュータ画像の区別に頑健なアプローチを提案する。
提案手法は,一組のベースラインと比較して高い性能向上を実現する。
論文 参考訳(メタデータ) (2023-08-14T17:11:17Z) - Multi-scale Sparse Representation-Based Shadow Inpainting for Retinal
OCT Images [0.261990490798442]
網膜光コヒーレンス断層撮影(OCT)画像における表面血管による陰影領域の塗布は,正確で堅牢な機械解析と臨床診断に重要である。
近隣情報を伝播して徐々に行方不明地域を埋めるといった従来のシーケンスベースのアプローチは費用対効果が高い。
エンコーダ・デコーダネットワークのような深層学習に基づく手法は、自然な画像の描画タスクにおいて有望な結果を示している。
スパース表現と深層学習を相乗的に適用することにより,OCT画像のマルチスケールシャドウ塗装フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-23T09:37:14Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Multi-Texture GAN: Exploring the Multi-Scale Texture Translation for
Brain MR Images [1.9163481966968943]
既存のアルゴリズムのかなりの割合は、ターゲットスキャナーからテクスチャの詳細を明示的に利用し保存することはできない。
本論文では,再構成イメージをより詳細に強調するために,マルチスケールテクスチャ転送の設計を行う。
本手法は,最先端手法において,プロトコール間あるいはスカンナ間翻訳において優れた結果が得られる。
論文 参考訳(メタデータ) (2021-02-14T19:14:06Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。