論文の概要: Deep Attentive Generative Adversarial Network for Photo-Realistic Image
De-Quantization
- arxiv url: http://arxiv.org/abs/2004.03150v1
- Date: Tue, 7 Apr 2020 06:45:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 00:43:40.554418
- Title: Deep Attentive Generative Adversarial Network for Photo-Realistic Image
De-Quantization
- Title(参考訳): photo-realistic image de-quantizationのための深層注意型生成逆ネットワーク
- Authors: Yang Zhang, Changhui Hu, and Xiaobo Lu
- Abstract要約: 減量子化は、高ビット深度画面に表示するための低ビット深度画像の視覚的品質を改善することができる。
本稿では,画像強度分解能の超解像を実現するためのDAGANアルゴリズムを提案する。
DenseResAttモジュールは、自己保持機構を備えた密集した残留ブロックで構成されている。
- 参考スコア(独自算出の注目度): 25.805568996596783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of current display devices are with eight or higher bit-depth. However,
the quality of most multimedia tools cannot achieve this bit-depth standard for
the generating images. De-quantization can improve the visual quality of low
bit-depth image to display on high bit-depth screen. This paper proposes DAGAN
algorithm to perform super-resolution on image intensity resolution, which is
orthogonal to the spatial resolution, realizing photo-realistic de-quantization
via an end-to-end learning pattern. Until now, this is the first attempt to
apply Generative Adversarial Network (GAN) framework for image de-quantization.
Specifically, we propose the Dense Residual Self-attention (DenseResAtt)
module, which is consisted of dense residual blocks armed with self-attention
mechanism, to pay more attention on high-frequency information. Moreover, the
series connection of sequential DenseResAtt modules forms deep attentive
network with superior discriminative learning ability in image de-quantization,
modeling representative feature maps to recover as much useful information as
possible. In addition, due to the adversarial learning framework can reliably
produce high quality natural images, the specified content loss as well as the
adversarial loss are back-propagated to optimize the training of model. Above
all, DAGAN is able to generate the photo-realistic high bit-depth image without
banding artifacts. Experiment results on several public benchmarks prove that
the DAGAN algorithm possesses ability to achieve excellent visual effect and
satisfied quantitative performance.
- Abstract(参考訳): 現在のディスプレイデバイスのほとんどは、ビット深度が8以上ある。
しかし、ほとんどのマルチメディアツールの品質は、画像を生成するためのビット深度標準を達成できない。
減量子化は、高ビット深度画面に表示するための低ビット深度画像の視覚的品質を改善することができる。
本稿では,空間分解能に直交する画像強度分解能の超分解能を実現するためのDAGANアルゴリズムを提案する。
これまでは、GAN(Generative Adversarial Network)フレームワークを画像の非量子化に適用するための最初の試みである。
具体的には,高頻度情報に注意を払うために,高濃度残差ブロックを用いた高濃度残差セルフアテンション(denseresatt)モジュールを提案する。
さらに,逐次的高密度resattモジュールの直列接続は,画像非量子化における識別学習能力に優れた深層注意ネットワークを形成し,代表的特徴マップをモデル化し,可能な限り有用な情報を復元する。
また、敵対学習フレームワークは、高品質な自然画像を確実に生成できるため、特定のコンテンツ損失と敵対的損失をバックプロパゲーションしてモデルの訓練を最適化する。
DAGANは、アーティファクトをバンドリングすることなく、写真リアルな高ビット深度画像を生成することができる。
いくつかの公開ベンチマーク実験の結果、DAGANアルゴリズムは優れた視覚効果と量的性能を達成する能力を有することが示された。
関連論文リスト
- Large-Scale Data-Free Knowledge Distillation for ImageNet via Multi-Resolution Data Generation [53.95204595640208]
Data-Free Knowledge Distillation (DFKD)は、教師モデルから生徒モデルへの知識伝達を可能にする高度な技術である。
従来のアプローチでは、実際の画像の情報を活用することなく、高解像度で合成画像を生成してきた。
MUSEは、クラスアクティベーションマップ(CAM)を使用して、低い解像度で画像を生成し、生成された画像が重要なクラス固有の特徴を保持することを保証する。
論文 参考訳(メタデータ) (2024-11-26T02:23:31Z) - High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
SDモデルに先立って、頑健な一般化機能とリッチで多目的な画像表現を活用することにより、高忠実で詳細な生成を保ちながら、推論時間を著しく短縮する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - Research on Image Super-Resolution Reconstruction Mechanism based on Convolutional Neural Network [8.739451985459638]
超解像アルゴリズムは、同一シーンから撮影された1つ以上の低解像度画像を高解像度画像に変換する。
再構成過程における画像の特徴抽出と非線形マッピング手法は,既存のアルゴリズムでは依然として困難である。
目的は、高解像度の画像から高品質で高解像度の画像を復元することである。
論文 参考訳(メタデータ) (2024-07-18T06:50:39Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - High-Frequency aware Perceptual Image Enhancement [0.08460698440162888]
マルチスケール解析に適した新しいディープニューラルネットワークを導入し,効率的なモデルに依存しない手法を提案する。
本モデルは,デノイング,デブロアリング,単一画像超解像などのマルチスケール画像強調問題に適用できる。
論文 参考訳(メタデータ) (2021-05-25T07:33:14Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。