論文の概要: Toward Interactive Modulation for Photo-Realistic Image Restoration
- arxiv url: http://arxiv.org/abs/2105.03085v1
- Date: Fri, 7 May 2021 07:05:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 19:06:48.901320
- Title: Toward Interactive Modulation for Photo-Realistic Image Restoration
- Title(参考訳): フォトリアリスティック画像復元のためのインタラクティブ変調法
- Authors: Haoming Cai and Jingwen He and Qiao Yu and Chao Dong
- Abstract要約: 画像復元レベルの調整は、復元強度を表す因子を変更して復元画像を生成することを目指しています。
本稿では、変調タスクで高周波テクスチャを生成する制御可能なUnetGenerative Adversarial Network (CUGAN)を提案する。
- 参考スコア(独自算出の注目度): 16.610981587637102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modulating image restoration level aims to generate a restored image by
altering a factor that represents the restoration strength. Previous works
mainly focused on optimizing the mean squared reconstruction error, which
brings high reconstruction accuracy but lacks finer texture details. This paper
presents a Controllable Unet Generative Adversarial Network (CUGAN) to generate
high-frequency textures in the modulation tasks. CUGAN consists of two modules
-- base networks and condition networks. The base networks comprise a generator
and a discriminator. In the generator, we realize the interactive control of
restoration levels by tuning the weights of different features from different
scales in the Unet architecture. Moreover, we adaptively modulate the
intermediate features in the discriminator according to the severity of
degradations. The condition networks accept the condition vector (encoded
degradation information) as input, then generate modulation parameters for both
the generator and the discriminator. During testing, users can control the
output effects by tweaking the condition vector. We also provide a smooth
transition between GAN and MSE effects by a simple transition method. Extensive
experiments demonstrate that the proposed CUGAN achieves excellent performance
on image restoration modulation tasks.
- Abstract(参考訳): 変調画像復元レベルは、復元強度を表す因子を変化させて復元画像を生成することを目的としている。
従来は平均2乗復元誤差の最適化に主眼を置いていたが, 再現精度は高く, テクスチャの細部が細かでない。
本稿では,制御可能なUnet生成支援ネットワーク(CUGAN)を提案し,変調タスクにおいて高頻度なテクスチャを生成する。
CUGANはベースネットワークと条件ネットワークという2つのモジュールで構成されている。
ベースネットワークは、ジェネレータと判別器とからなる。
ジェネレータでは, unetアーキテクチャにおける異なるスケールの異なる特徴の重み付けをチューニングすることにより, 修復レベルのインタラクティブな制御を実現する。
さらに, 劣化の重大度に応じて, 判別器の中間特性を適応的に調整する。
条件ネットワークは、条件ベクトル(符号化劣化情報)を入力として受け入れ、生成器と判別器の両方の変調パラメータを生成する。
テスト中、ユーザは条件ベクトルを微調整することで出力効果を制御できる。
また, 簡単な遷移法により, GAN と MSE 効果のスムーズな遷移も提供する。
広汎な実験により,提案したCUGANは画像復元調整タスクにおいて優れた性能を発揮することが示された。
関連論文リスト
- Look-Around Before You Leap: High-Frequency Injected Transformer for Image Restoration [46.96362010335177]
本稿では,画像復元のための簡易かつ効果的な高周波インジェクト変換器HITを提案する。
具体的には,機能マップに高頻度の詳細を組み込んだウィンドウワイドインジェクションモジュール(WIM)を設計し,高品質な画像の復元のための信頼性の高い参照を提供する。
さらに,BIMにおけるチャネル次元の計算によって失われる可能性のある空間的関係を維持するために,空間拡張ユニット(SEU)を導入する。
論文 参考訳(メタデータ) (2024-03-30T08:05:00Z) - Spatial-Contextual Discrepancy Information Compensation for GAN
Inversion [67.21442893265973]
空間的不一致情報補償に基づく新しいGAN-inversion法(SDIC)を提案する。
SDICは、オリジナルの画像と再構成/編集された画像との間の画像詳細のギャップを埋める。
提案手法は,画像インバージョンと編集作業の両方において,高速な推論速度で優れた歪み適応性トレードオフを実現する。
論文 参考訳(メタデータ) (2023-12-12T08:58:56Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware
Training [112.96224800952724]
複雑な画像に大きな穴をあける際の可視像構造を生成するためのカスケード変調GAN(CM-GAN)を提案する。
各デコーダブロックにおいて、まず大域変調を適用し、粗い意味認識合成構造を行い、次に大域変調の出力に空間変調を適用し、空間適応的に特徴写像を更に調整する。
さらに,ネットワークがホール内の新たな物体を幻覚させるのを防ぐため,実世界のシナリオにおける物体除去タスクのニーズを満たすために,オブジェクト認識型トレーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-03-22T16:13:27Z) - GCFSR: a Generative and Controllable Face Super Resolution Method
Without Facial and GAN Priors [23.74675310360883]
GCFSRは、生成可能で制御可能な顔SRフレームワークである。
これは、追加の事前情報なしで忠実なアイデンティティ情報でイメージを再構築する。
大規模なアップスケーリング要因に対する最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-03-14T17:22:19Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - Toward a Controllable Disentanglement Network [22.968760397814993]
本稿では, 画像編集における歪みの程度を制御し, 歪み強度と復元品質のバランスをとることにより, 歪み画像表現を学習する2つの重要な問題に対処する。
ソフトターゲット表現の実際の値空間を探索することにより、指定された特性を持つ新規な画像を合成することができる。
論文 参考訳(メタデータ) (2020-01-22T16:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。