論文の概要: Efficient texture-aware multi-GAN for image inpainting
- arxiv url: http://arxiv.org/abs/2009.14721v2
- Date: Sat, 13 Feb 2021 15:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:04:16.971921
- Title: Efficient texture-aware multi-GAN for image inpainting
- Title(参考訳): 画像インペイントのためのテクスチャ対応マルチGAN
- Authors: Mohamed Abbas Hedjazi, Yakup Genc
- Abstract要約: 近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent GAN-based (Generative adversarial networks) inpainting methods show
remarkable improvements and generate plausible images using multi-stage
networks or Contextual Attention Modules (CAM). However, these techniques
increase the model complexity limiting their application in low-resource
environments. Furthermore, they fail in generating high-resolution images with
realistic texture details due to the GAN stability problem. Motivated by these
observations, we propose a multi-GAN architecture improving both the
performance and rendering efficiency. Our training schema optimizes the
parameters of four progressive efficient generators and discriminators in an
end-to-end manner. Filling in low-resolution images is less challenging for
GANs due to the small dimensional space. Meanwhile, it guides higher resolution
generators to learn the global structure consistency of the image. To constrain
the inpainting task and ensure fine-grained textures, we adopt an LBP-based
loss function to minimize the difference between the generated and the ground
truth textures. We conduct our experiments on Places2 and CelebHQ datasets.
Qualitative and quantitative results show that the proposed method not only
performs favorably against state-of-the-art algorithms but also speeds up the
inference time.
- Abstract(参考訳): 近年のGAN (Generative Adversarial Network) インペイント手法は,多段ネットワークやコンテキストアテンションモジュール(CAM)を用いて,顕著な改善と可塑性画像の生成を実現している。
しかし、これらの技術は低リソース環境でのアプリケーションを制限するモデルの複雑さを増大させる。
さらに,gan安定性問題により,テクスチャ詳細の現実的な高分解能画像の生成に失敗している。
これらの観測により,性能とレンダリング効率を両立させるマルチGANアーキテクチャを提案する。
当社のトレーニングスキーマは,4つのプログレッシブ効率的なジェネレータと識別器のパラメータをエンドツーエンドで最適化する。
低解像度画像の充填は、小さな次元空間のため、gansにとって難しくない。
一方、画像のグローバルな構造整合性を学ぶために高解像度ジェネレータを誘導する。
塗装作業の制約ときめ細かいテクスチャの確保のために, LBPに基づく損失関数を適用し, 生成した真実テクスチャと接地真実テクスチャの差を最小限に抑える。
我々はplaces2とcelebhqデータセットで実験を行う。
定性的かつ定量的な結果は,提案手法が最先端のアルゴリズムに対して良好に動作するだけでなく,推論時間を短縮することを示している。
関連論文リスト
- Research on Image Super-Resolution Reconstruction Mechanism based on Convolutional Neural Network [8.739451985459638]
超解像アルゴリズムは、同一シーンから撮影された1つ以上の低解像度画像を高解像度画像に変換する。
再構成過程における画像の特徴抽出と非線形マッピング手法は,既存のアルゴリズムでは依然として困難である。
目的は、高解像度の画像から高品質で高解像度の画像を復元することである。
論文 参考訳(メタデータ) (2024-07-18T06:50:39Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - High-Frequency aware Perceptual Image Enhancement [0.08460698440162888]
マルチスケール解析に適した新しいディープニューラルネットワークを導入し,効率的なモデルに依存しない手法を提案する。
本モデルは,デノイング,デブロアリング,単一画像超解像などのマルチスケール画像強調問題に適用できる。
論文 参考訳(メタデータ) (2021-05-25T07:33:14Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。