論文の概要: Distinguishing Natural and Computer-Generated Images using
Multi-Colorspace fused EfficientNet
- arxiv url: http://arxiv.org/abs/2110.09428v1
- Date: Mon, 18 Oct 2021 15:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:10:14.057222
- Title: Distinguishing Natural and Computer-Generated Images using
Multi-Colorspace fused EfficientNet
- Title(参考訳): Multi-Colorspace fused EfficientNet を用いた自然画像とコンピュータ画像の識別
- Authors: Manjary P Gangan, Anoop K, and Lajish V L
- Abstract要約: 実世界の画像鑑定のシナリオでは、画像生成のあらゆるカテゴリを考えることが不可欠である。
3つの効率ネットワークを並列に融合させることにより、マルチカラー融合効率ネットモデルを提案する。
我々のモデルは、精度、後処理に対する堅牢性、および他のデータセットに対する一般化性の観点から、ベースラインよりも優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of distinguishing natural images from photo-realistic
computer-generated ones either addresses natural images versus computer
graphics or natural images versus GAN images, at a time. But in a real-world
image forensic scenario, it is highly essential to consider all categories of
image generation, since in most cases image generation is unknown. We, for the
first time, to our best knowledge, approach the problem of distinguishing
natural images from photo-realistic computer-generated images as a three-class
classification task classifying natural, computer graphics, and GAN images. For
the task, we propose a Multi-Colorspace fused EfficientNet model by parallelly
fusing three EfficientNet networks that follow transfer learning methodology
where each network operates in different colorspaces, RGB, LCH, and HSV, chosen
after analyzing the efficacy of various colorspace transformations in this
image forensics problem. Our model outperforms the baselines in terms of
accuracy, robustness towards post-processing, and generalizability towards
other datasets. We conduct psychophysics experiments to understand how
accurately humans can distinguish natural, computer graphics, and GAN images
where we could observe that humans find difficulty in classifying these images,
particularly the computer-generated images, indicating the necessity of
computational algorithms for the task. We also analyze the behavior of our
model through visual explanations to understand salient regions that contribute
to the model's decision making and compare with manual explanations provided by
human participants in the form of region markings, where we could observe
similarities in both the explanations indicating the powerful nature of our
model to take the decisions meaningfully.
- Abstract(参考訳): 自然画像とフォトリアリスティックなコンピュータ生成画像とを区別する問題は、自然画像とコンピュータグラフィックス、あるいは自然画像とgan画像を同時に扱うことである。
しかし,実世界の画像法医学的なシナリオでは,画像生成が未知な場合が多いため,画像生成のすべてのカテゴリを考慮することが極めて重要である。
我々は,自然画像と写真リアルなコンピュータ生成画像とを区別する問題を,自然,コンピュータグラフィックス,GAN画像を分類する3つの分類課題として,初めてアプローチした。
本研究では,各ネットワークが異なる色空間(RGB, LCH, HSV)で動作している移動学習手法に追従する3つの効率的なネットワークを並列に融合させることにより,多色空間融合効率ネットモデルを提案する。
我々のモデルは、精度、後処理に対する堅牢性、および他のデータセットに対する一般化性の観点から、ベースラインよりも優れています。
我々は、自然、コンピュータグラフィックス、GAN画像がいかに正確に区別できるかを理解するための心理物理学実験を行い、これらの画像、特にコンピュータ生成画像の分類が困難であることを観察し、タスクに必要な計算アルゴリズムの必要性を示す。
また、モデルの決定に寄与する健全な領域を理解するための視覚的説明を通じてモデルの振る舞いを分析し、モデルの強力な性質を示す説明の両方において、決定を有意に行うための類似性を観察できる領域マーキングの形式で、人間の手による説明と比較する。
関連論文リスト
- A Robust Approach Towards Distinguishing Natural and Computer Generated
Images using Multi-Colorspace fused and Enriched Vision Transformer [0.0]
本研究は,自然画像とコンピュータ画像の区別に頑健なアプローチを提案する。
提案手法は,一組のベースラインと比較して高い性能向上を実現する。
論文 参考訳(メタデータ) (2023-08-14T17:11:17Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z) - Cross-View Image Synthesis with Deformable Convolution and Attention
Mechanism [29.528402825356398]
本稿では、変形可能な畳み込みとアテンション機構に基づくGAN(Generative Adversarial Networks)を用いて、クロスビュー画像合成の問題を解決することを提案する。
シーンの外観や意味情報を他の視点から理解し、変換することは困難であり、U-netネットワークにおける変形畳み込みを用いて、異なるスケールのオブジェクトの特徴を抽出するネットワークの能力を向上させる。
論文 参考訳(メタデータ) (2020-07-20T03:08:36Z) - Seeing eye-to-eye? A comparison of object recognition performance in
humans and deep convolutional neural networks under image manipulation [0.0]
本研究では,ヒトとフィードフォワードニューラルネットワークの視覚コア物体認識性能の行動比較を目的とした。
精度分析の結果、人間はDCNNを全ての条件で上回るだけでなく、形状や色の変化に対する強い堅牢性も示している。
論文 参考訳(メタデータ) (2020-07-13T10:26:30Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Steering Self-Supervised Feature Learning Beyond Local Pixel Statistics [60.92229707497999]
画像の特定の変換の識別に基づく自己教師型特徴学習の新しい原理を提案する。
実験により,LCI,画像ワープ,回転などの変換を識別する学習が,技術一般化能力の状態を特徴付けることを示した。
論文 参考訳(メタデータ) (2020-04-05T22:09:08Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。