論文の概要: Progressive with Purpose: Guiding Progressive Inpainting DNNs through
Context and Structure
- arxiv url: http://arxiv.org/abs/2209.10071v1
- Date: Wed, 21 Sep 2022 02:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 16:17:32.155503
- Title: Progressive with Purpose: Guiding Progressive Inpainting DNNs through
Context and Structure
- Title(参考訳): 目的によるプログレッシブ:コンテキストと構造を通してプログレッシブなDNNを導く
- Authors: Kangdi Shi (1), Muhammad Alrabeiah (2) and Jun Chen (1) ((1)
Department of Electrical and Computer Engineering, McMaster University,
Hamilton, Canada, (2) Electrical Engineering Department, King Saud
University, Saudi Arabia.)
- Abstract要約: 本稿では,処理された画像の構造的・文脈的整合性を維持する新しい塗装ネットワークを提案する。
ガウスピラミッドとラプラシアピラミッドに触発されたこのネットワークのコアは、GLEと呼ばれる特徴抽出モジュールである。
ベンチマーク実験により, 提案手法は, 多くの最先端の塗装アルゴリズムに対して, 性能の向上を図っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of deep learning in the past decade has significantly helped
advance image inpainting. Although achieving promising performance, deep
learning-based inpainting algorithms still struggle from the distortion caused
by the fusion of structural and contextual features, which are commonly
obtained from, respectively, deep and shallow layers of a convolutional
encoder. Motivated by this observation, we propose a novel progressive
inpainting network that maintains the structural and contextual integrity of a
processed image. More specifically, inspired by the Gaussian and Laplacian
pyramids, the core of the proposed network is a feature extraction module named
GLE. Stacking GLE modules enables the network to extract image features from
different image frequency components. This ability is important to maintain
structural and contextual integrity, for high frequency components correspond
to structural information while low frequency components correspond to
contextual information. The proposed network utilizes the GLE features to
progressively fill in missing regions in a corrupted image in an iterative
manner. Our benchmarking experiments demonstrate that the proposed method
achieves clear improvement in performance over many state-of-the-art inpainting
algorithms.
- Abstract(参考訳): 過去10年間のディープラーニングの出現は、イメージインペインティングの発展に大きく寄与した。
有望な性能を達成する一方で、ディープラーニングベースのインペインティングアルゴリズムは、畳み込みエンコーダの深層と浅層から一般的に得られる構造的特徴と文脈的特徴の融合による歪みに依然として苦しむ。
そこで本研究では,処理画像の構造的および文脈的完全性を維持する新しいプログレッシブ・インペインティング・ネットワークを提案する。
具体的には、ガウスピラミッドとラプラシアピラミッドに触発され、提案されたネットワークのコアはGLEと呼ばれる特徴抽出モジュールである。
GLEモジュールを積み重ねることで、異なる画像周波数成分から画像特徴を抽出することができる。
この能力は、高頻度成分が構造情報に対応し、低頻度成分が文脈情報に対応している間に、構造的・文脈的整合性を維持することが重要である。
提案するネットワークは,GLE特徴を利用して,劣化した画像の欠落領域を段階的に反復的に埋める。
ベンチマーク実験により,提案手法は最先端のインペインティングアルゴリズムよりも明らかに性能が向上することを示した。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Unsupervised Structure-Consistent Image-to-Image Translation [6.282068591820945]
Swapping Autoencoderは、ディープイメージ操作と画像から画像への変換において最先端のパフォーマンスを達成した。
我々は、勾配反転層に基づく単純で効果的な補助モジュールを導入することにより、この作業を改善する。
補助モジュールの損失は、ジェネレータが全ゼロテクスチャコードでイメージを再構築することを学ぶことを強制する。
論文 参考訳(メタデータ) (2022-08-24T13:47:15Z) - Keys to Better Image Inpainting: Structure and Texture Go Hand in Hand [28.32208483559088]
インペイントアルゴリズムの性能は、生成された構造やテクスチャによってよりよく判断できると主張している。
本稿では,2つの設計の利点を組み合わせた新しい塗装ネットワークを提案する。
本モデルは,構造生成と繰り返しテクスチャ合成の両面において,最先端の性能に匹敵する視覚的品質を実現する。
論文 参考訳(メタデータ) (2022-08-05T20:42:13Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Modeling Image Composition for Complex Scene Generation [77.10533862854706]
本稿では,レイアウト・ツー・イメージ生成タスクにおける最先端結果を実現する手法を提案する。
本稿では,RGB画像をパッチトークンに圧縮した後,オブジェクト・トゥ・オブジェクト,オブジェクト・トゥ・パッチ,パッチ・トゥ・パッチの依存関係を探索するTransformer with Focal Attention (TwFA)を提案する。
論文 参考訳(メタデータ) (2022-06-02T08:34:25Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware
Training [112.96224800952724]
複雑な画像に大きな穴をあける際の可視像構造を生成するためのカスケード変調GAN(CM-GAN)を提案する。
各デコーダブロックにおいて、まず大域変調を適用し、粗い意味認識合成構造を行い、次に大域変調の出力に空間変調を適用し、空間適応的に特徴写像を更に調整する。
さらに,ネットワークがホール内の新たな物体を幻覚させるのを防ぐため,実世界のシナリオにおける物体除去タスクのニーズを満たすために,オブジェクト認識型トレーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-03-22T16:13:27Z) - RigNet: Repetitive Image Guided Network for Depth Completion [20.66405067066299]
近年のアプローチは、高密度な結果を予測するためのイメージガイド学習に重点を置いている。
ぼやけたイメージガイダンスとオブジェクト構造は、まだイメージガイドされたフレームワークのパフォーマンスを妨げている。
画像案内ネットワークにおける反復的な設計を探索し,徐々に深度値の回復を図る。
提案手法は,NYUv2データセットの最先端化を実現し,提出時のKITTIベンチマークで1位にランクインする。
論文 参考訳(メタデータ) (2021-07-29T08:00:33Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。