論文の概要: MGAN-CRCM: A Novel Multiple Generative Adversarial Network and Coarse-Refinement Based Cognizant Method for Image Inpainting
- arxiv url: http://arxiv.org/abs/2412.19000v1
- Date: Wed, 25 Dec 2024 22:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:27:27.377923
- Title: MGAN-CRCM: A Novel Multiple Generative Adversarial Network and Coarse-Refinement Based Cognizant Method for Image Inpainting
- Title(参考訳): MGAN-CRCM - 画像インペインティングのための複数生成逆ネットワークと粗リファインメントに基づくコグニザント法
- Authors: Nafiz Al Asad, Md. Appel Mahmud Pranto, Shbiruzzaman Shiam, Musaddeq Mahmud Akand, Mohammad Abu Yousuf, Khondokar Fida Hasan, Mohammad Ali Moni,
- Abstract要約: 本稿では,GANモデルとResNetモデルを組み合わせた新しいアーキテクチャを提案する。
我々のフレームワークは3つのコンポーネントを統合している。ガイドおよびブラインドインペイントのための変換畳み込みベースGAN、オブジェクト除去のための高速ResNet-Convolutional Neural Network(FR-CNN)、改良のためのコモディションGAN(Co-Mod GAN)である。
- 参考スコア(独自算出の注目度): 3.560962705392617
- License:
- Abstract: Image inpainting is a widely used technique in computer vision for reconstructing missing or damaged pixels in images. Recent advancements with Generative Adversarial Networks (GANs) have demonstrated superior performance over traditional methods due to their deep learning capabilities and adaptability across diverse image domains. Residual Networks (ResNet) have also gained prominence for their ability to enhance feature representation and compatibility with other architectures. This paper introduces a novel architecture combining GAN and ResNet models to improve image inpainting outcomes. Our framework integrates three components: Transpose Convolution-based GAN for guided and blind inpainting, Fast ResNet-Convolutional Neural Network (FR-CNN) for object removal, and Co-Modulation GAN (Co-Mod GAN) for refinement. The model's performance was evaluated on benchmark datasets, achieving accuracies of 96.59% on Image-Net, 96.70% on Places2, and 96.16% on CelebA. Comparative analyses demonstrate that the proposed architecture outperforms existing methods, highlighting its effectiveness in both qualitative and quantitative evaluations.
- Abstract(参考訳): 画像インパインティング(英: Image inpainting)は、コンピュータビジョンにおいて、画像の欠落または破損したピクセルを再構成するための広く用いられる技法である。
GAN(Generative Adversarial Networks)による最近の進歩は、様々な画像領域にまたがるディープラーニング能力と適応性により、従来の手法よりも優れた性能を示している。
Residual Networks (ResNet)は、他のアーキテクチャとの互換性と特徴表現を強化する能力でも有名である。
本稿では,GANモデルとResNetモデルを組み合わせた新しいアーキテクチャを提案する。
我々のフレームワークは3つのコンポーネントを統合している。ガイドおよびブラインドインペイントのための変換畳み込みベースGAN、オブジェクト除去のための高速ResNet-Convolutional Neural Network(FR-CNN)、改良のためのコモディションGAN(Co-Mod GAN)である。
このモデルの性能はベンチマークデータセットで評価され、画像ネットで96.59%、Places2で96.70%、CelebAで96.16%であった。
比較分析により,提案手法は既存手法よりも優れており,定性評価と定量的評価の両面での有効性が示された。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - GRIG: Few-Shot Generative Residual Image Inpainting [27.252855062283825]
そこで本研究では,高画質な残像塗装法を新たに提案する。
中心となる考え方は、特徴抽出のために畳み込みニューラルネットワーク(CNN)を組み込んだ反復的残留推論手法を提案することである。
また, 忠実なテクスチャと詳細な外観を創出するための, フォージェリーパッチ対逆訓練戦略を提案する。
論文 参考訳(メタデータ) (2023-04-24T12:19:06Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - High-Quality Pluralistic Image Completion via Code Shared VQGAN [51.7805154545948]
高速な推論速度で高品質と多様性を両立させることができる多元画像補完のための新しい枠組みを提案する。
我々のフレームワークは、セマンティックにリッチな離散的なコードを効率的かつ堅牢に学習することができ、画像再構成の品質が大幅に向上する。
論文 参考訳(メタデータ) (2022-04-05T01:47:35Z) - A Unified Architecture of Semantic Segmentation and Hierarchical
Generative Adversarial Networks for Expression Manipulation [52.911307452212256]
セマンティックセグメンテーションと階層的GANの統一アーキテクチャを開発する。
我々のフレームワークのユニークな利点は、将来的なセマンティックセグメンテーションネットワーク条件を生成モデルに渡すことである。
我々は,AffectNetとRaFDの2つの難解な表情翻訳ベンチマークとセマンティックセグメンテーションベンチマークであるCelebAMask-HQについて評価を行った。
論文 参考訳(メタデータ) (2021-12-08T22:06:31Z) - Evaluating Deep Neural Networks for Image Document Enhancement [0.0]
この研究は、文書画像の強化問題に適用された6つの最先端のディープニューラルネットワーク(DNN)アーキテクチャを評価する。
優れたアーキテクチャは、既存のアルゴリズムと比較して、一般的に優れた拡張を実現した。
論文 参考訳(メタデータ) (2021-06-11T19:48:28Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。