論文の概要: Distinguishing Natural and Computer-Generated Images using
Multi-Colorspace fused EfficientNet
- arxiv url: http://arxiv.org/abs/2110.09428v1
- Date: Mon, 18 Oct 2021 15:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:10:14.057222
- Title: Distinguishing Natural and Computer-Generated Images using
Multi-Colorspace fused EfficientNet
- Title(参考訳): Multi-Colorspace fused EfficientNet を用いた自然画像とコンピュータ画像の識別
- Authors: Manjary P Gangan, Anoop K, and Lajish V L
- Abstract要約: 実世界の画像鑑定のシナリオでは、画像生成のあらゆるカテゴリを考えることが不可欠である。
3つの効率ネットワークを並列に融合させることにより、マルチカラー融合効率ネットモデルを提案する。
我々のモデルは、精度、後処理に対する堅牢性、および他のデータセットに対する一般化性の観点から、ベースラインよりも優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of distinguishing natural images from photo-realistic
computer-generated ones either addresses natural images versus computer
graphics or natural images versus GAN images, at a time. But in a real-world
image forensic scenario, it is highly essential to consider all categories of
image generation, since in most cases image generation is unknown. We, for the
first time, to our best knowledge, approach the problem of distinguishing
natural images from photo-realistic computer-generated images as a three-class
classification task classifying natural, computer graphics, and GAN images. For
the task, we propose a Multi-Colorspace fused EfficientNet model by parallelly
fusing three EfficientNet networks that follow transfer learning methodology
where each network operates in different colorspaces, RGB, LCH, and HSV, chosen
after analyzing the efficacy of various colorspace transformations in this
image forensics problem. Our model outperforms the baselines in terms of
accuracy, robustness towards post-processing, and generalizability towards
other datasets. We conduct psychophysics experiments to understand how
accurately humans can distinguish natural, computer graphics, and GAN images
where we could observe that humans find difficulty in classifying these images,
particularly the computer-generated images, indicating the necessity of
computational algorithms for the task. We also analyze the behavior of our
model through visual explanations to understand salient regions that contribute
to the model's decision making and compare with manual explanations provided by
human participants in the form of region markings, where we could observe
similarities in both the explanations indicating the powerful nature of our
model to take the decisions meaningfully.
- Abstract(参考訳): 自然画像とフォトリアリスティックなコンピュータ生成画像とを区別する問題は、自然画像とコンピュータグラフィックス、あるいは自然画像とgan画像を同時に扱うことである。
しかし,実世界の画像法医学的なシナリオでは,画像生成が未知な場合が多いため,画像生成のすべてのカテゴリを考慮することが極めて重要である。
我々は,自然画像と写真リアルなコンピュータ生成画像とを区別する問題を,自然,コンピュータグラフィックス,GAN画像を分類する3つの分類課題として,初めてアプローチした。
本研究では,各ネットワークが異なる色空間(RGB, LCH, HSV)で動作している移動学習手法に追従する3つの効率的なネットワークを並列に融合させることにより,多色空間融合効率ネットモデルを提案する。
我々のモデルは、精度、後処理に対する堅牢性、および他のデータセットに対する一般化性の観点から、ベースラインよりも優れています。
我々は、自然、コンピュータグラフィックス、GAN画像がいかに正確に区別できるかを理解するための心理物理学実験を行い、これらの画像、特にコンピュータ生成画像の分類が困難であることを観察し、タスクに必要な計算アルゴリズムの必要性を示す。
また、モデルの決定に寄与する健全な領域を理解するための視覚的説明を通じてモデルの振る舞いを分析し、モデルの強力な性質を示す説明の両方において、決定を有意に行うための類似性を観察できる領域マーキングの形式で、人間の手による説明と比較する。
関連論文リスト
- Novel computational workflows for natural and biomedical image processing based on hypercomplex algebras [49.81327385913137]
ハイパーコンプレックス画像処理は、代数的および幾何学的原理を含む統一パラダイムで従来の手法を拡張している。
このワークル平均は、自然・生体画像解析のための四元数と2次元平面(四元数 - ピクセルを表す - を2次元平面に分割する)を分割する。
提案手法は、画像の自動処理パイプラインの一部として、カラー外観(例えば、代替リフレクションやグレースケール変換)と画像コントラストを規制することができる。
論文 参考訳(メタデータ) (2025-02-11T18:38:02Z) - MatchAnything: Universal Cross-Modality Image Matching with Large-Scale Pre-Training [62.843316348659165]
ディープラーニングに基づく画像マッチングアルゴリズムは、人間を劇的に上回り、大量の対応を素早く正確に見つける。
本稿では, 画像間の基本構造を認識し, 一致させるためのモデル学習のために, 合成モード間学習信号を利用する大規模事前学習フレームワークを提案する。
我々の重要な発見は、我々のフレームワークで訓練されたマッチングモデルが、目に見えない8つのクロスモダリティ登録タスクにまたがる顕著な一般化性を達成することである。
論文 参考訳(メタデータ) (2025-01-13T18:37:36Z) - Convolution goes higher-order: a biologically inspired mechanism empowers image classification [0.8999666725996975]
本稿では,複雑な非線形生物学的視覚処理に着想を得た画像分類手法を提案する。
我々のモデルは、Volterraのような畳み込み演算子の拡張を組み込み、乗法的相互作用をキャプチャする。
私たちの仕事は神経科学とディープラーニングを橋渡しし、より効果的で生物学的にインスパイアされたコンピュータビジョンモデルへの道筋を提供します。
論文 参考訳(メタデータ) (2024-12-09T18:33:09Z) - A Robust Image Forensic Framework Utilizing Multi-Colorspace Enriched Vision Transformer for Distinguishing Natural and Computer-Generated Images [0.0]
本稿では、リッチな視覚変換器を利用して、自然画像と生成画像の区別を行う頑健な法科学分類手法を提案する。
提案手法は,各クラスの評価において,94.25%の検定精度と有意な性能向上を示す。
この研究は、自然な画像と生成された画像を区別する汎用的でレジリエントなソリューションを提供することにより、画像鑑定の最先端を推し進める。
論文 参考訳(メタデータ) (2023-08-14T17:11:17Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z) - Cross-View Image Synthesis with Deformable Convolution and Attention
Mechanism [29.528402825356398]
本稿では、変形可能な畳み込みとアテンション機構に基づくGAN(Generative Adversarial Networks)を用いて、クロスビュー画像合成の問題を解決することを提案する。
シーンの外観や意味情報を他の視点から理解し、変換することは困難であり、U-netネットワークにおける変形畳み込みを用いて、異なるスケールのオブジェクトの特徴を抽出するネットワークの能力を向上させる。
論文 参考訳(メタデータ) (2020-07-20T03:08:36Z) - Seeing eye-to-eye? A comparison of object recognition performance in
humans and deep convolutional neural networks under image manipulation [0.0]
本研究では,ヒトとフィードフォワードニューラルネットワークの視覚コア物体認識性能の行動比較を目的とした。
精度分析の結果、人間はDCNNを全ての条件で上回るだけでなく、形状や色の変化に対する強い堅牢性も示している。
論文 参考訳(メタデータ) (2020-07-13T10:26:30Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。