論文の概要: Contextual Attention Mechanism, SRGAN Based Inpainting System for
Eliminating Interruptions from Images
- arxiv url: http://arxiv.org/abs/2204.02591v1
- Date: Wed, 6 Apr 2022 05:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 13:07:58.595936
- Title: Contextual Attention Mechanism, SRGAN Based Inpainting System for
Eliminating Interruptions from Images
- Title(参考訳): 画像からの割り込み除去のためのsrganに基づくインパインティングシステムにおける文脈的注意機構
- Authors: Narayana Darapaneni, Vaibhav Kherde, Kameswara Rao, Deepali Nikam,
Swanand Katdare, Anima Shukla, Anagha Lomate, Anwesh Reddy Paduri
- Abstract要約: 完全な機械学習アプローチを用いて,画像のインペイントのためのエンドツーエンドパイプラインを提案する。
まず、YOLOモデルを使用して、画像から削除したいオブジェクトを自動的に識別し、ローカライズします。
その後、領域を埋めるためにコンテキストアテンション法を用いたGANモデルにマスク画像とオリジナル画像を提供する。
- 参考スコア(独自算出の注目度): 2.894944733573589
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The new alternative is to use deep learning to inpaint any image by utilizing
image classification and computer vision techniques. In general, image
inpainting is a task of recreating or reconstructing any broken image which
could be a photograph or oil/acrylic painting. With the advancement in the
field of Artificial Intelligence, this topic has become popular among AI
enthusiasts. With our approach, we propose an initial end-to-end pipeline for
inpainting images using a complete Machine Learning approach instead of a
conventional application-based approach. We first use the YOLO model to
automatically identify and localize the object we wish to remove from the
image. Using the result obtained from the model we can generate a mask for the
same. After this, we provide the masked image and original image to the GAN
model which uses the Contextual Attention method to fill in the region. It
consists of two generator networks and two discriminator networks and is also
called a coarse-to-fine network structure. The two generators use fully
convolutional networks while the global discriminator gets hold of the entire
image as input while the local discriminator gets the grip of the filled region
as input. The contextual Attention mechanism is proposed to effectively borrow
the neighbor information from distant spatial locations for reconstructing the
missing pixels. The third part of our implementation uses SRGAN to resolve the
inpainted image back to its original size. Our work is inspired by the paper
Free-Form Image Inpainting with Gated Convolution and Generative Image
Inpainting with Contextual Attention.
- Abstract(参考訳): 新しい選択肢は、画像分類とコンピュータビジョン技術を利用して、ディープラーニングを使用して任意のイメージを塗りつぶすことである。
一般に、画像インペイントとは、写真や油絵、アクリル絵など、壊れた画像の再現や再構築を行う作業である。
人工知能の分野での進歩により、この話題はAI愛好家の間で人気を博している。
本手法では,従来のアプリケーションベースアプローチではなく,完全な機械学習アプローチを用いて画像のインペイントを行うエンド・ツー・エンドパイプラインを提案する。
まず、YOLOモデルを使用して、画像から削除したいオブジェクトを自動的に識別し、ローカライズします。
モデルから得られた結果を使って、同じマスクを生成することができる。
その後、領域を埋めるためにコンテキストアテンション法を用いたGANモデルにマスク画像とオリジナル画像を提供する。
2つのジェネレータネットワークと2つの識別器ネットワークで構成され、粗いネットワーク構造とも呼ばれる。
2つのジェネレータは完全な畳み込みネットワークを使用し、グローバル識別器は画像全体を入力として保持し、ローカル識別器は入力として領域のグリップを取得する。
空間的位置から近隣情報を効果的に借用し,失明画素の再構成を行うためのコンテキストアテンション機構を提案する。
実装の第3部では、SRGANを使用して、塗装された画像を元のサイズに戻す。
我々の研究は論文Free-Form Image Inpainting with Gated ConvolutionとGenerative Image Inpainting with Contextual Attentionに触発されている。
関連論文リスト
- Efficient and Explicit Modelling of Image Hierarchies for Image
Restoration [120.35246456398738]
本研究では,画像復元のためのグローバル,地域,地域領域における画像階層を効率的に,かつ明示的にモデル化する機構を提案する。
そこで本研究では, 空間と時間的複雑性のバランスが良く, 固定されたストライプ自己注意を提案する。
そこで我々はGlobal, Regional, Local Rangeにおける画像階層を明示的にモデル化するGRLと呼ばれる新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-01T18:59:29Z) - Fully Context-Aware Image Inpainting with a Learned Semantic Pyramid [102.24539566851809]
画像中の任意の欠落する領域に対して、合理的で現実的なコンテンツを復元することは、重要な課題である。
最近の画像インパインティングモデルは鮮明な視覚的詳細を生成するために大きな進歩を遂げているが、それでもテクスチャのぼやけや構造的歪みにつながる可能性がある。
本研究では,画像中の局所的欠落コンテンツの回復に大きく貢献する,多スケールなセマンティック・セマンティック・ピラミッド・ネットワーク(SPN)を提案する。
論文 参考訳(メタデータ) (2021-12-08T04:33:33Z) - SketchEdit: Mask-Free Local Image Manipulation with Partial Sketches [95.45728042499836]
マスクレス局所画像操作という,スケッチに基づく画像操作の新しいパラダイムを提案する。
本モデルでは,対象の修正領域を自動的に予測し,構造型ベクトルにエンコードする。
ジェネレータは、スタイルベクトルとスケッチに基づいて、新しいイメージコンテンツを合成する。
論文 参考訳(メタデータ) (2021-11-30T02:42:31Z) - JPGNet: Joint Predictive Filtering and Generative Network for Image
Inpainting [21.936689731138213]
画像インパインティングは、欠落した領域を復元し、元の完全な画像と同じ回復結果を作成することを目的としている。
現存する作品は、これを純粋な生成問題とみなし、それに対応するために最先端の生成技術を採用している。
本稿では,2つの問題,すなわち予測フィルタリングと深部生成の混合として,画像のインペイントを定式化する。
論文 参考訳(メタデータ) (2021-07-09T07:49:52Z) - Iterative Facial Image Inpainting using Cyclic Reverse Generator [0.913755431537592]
Cyclic Reverse Generator (CRG)アーキテクチャはエンコーダジェネレータモデルを提供する。
提案モデルを用いて実写画像を生成するには,数回の反復しか十分でないことを実証的に観察した。
本手法では,様々なマスクタイプを用いてスケッチベースのインペインティングを適用でき,多種多様な結果が得られる。
論文 参考訳(メタデータ) (2021-01-18T12:19:58Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Deep Generative Model for Image Inpainting with Local Binary Pattern
Learning and Spatial Attention [28.807711307545112]
本稿では,LBP学習ネットワークと実際の塗布ネットワークを組み合わせることで,エンド・ツー・エンドの2段階(粗い)生成モデルを提案する。
CelebA-HQ、Places、Paris StreetViewといった公開データセットの実験では、我々のモデルは最先端の競合するアルゴリズムよりも優れた塗装結果を生成する。
論文 参考訳(メタデータ) (2020-09-02T12:59:28Z) - R-MNet: A Perceptual Adversarial Network for Image Inpainting [5.471225956329675]
本稿では,新たな逆マスク演算子であるReverse Masking Network(R-MNet)と組み合わせたWasserstein GANを提案する。
提案手法は,高分解能な塗装作業に一般化でき,人間の視覚系に適応可能なよりリアルな出力を示す。
論文 参考訳(メタデータ) (2020-08-11T10:58:10Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z) - OneGAN: Simultaneous Unsupervised Learning of Conditional Image
Generation, Foreground Segmentation, and Fine-Grained Clustering [100.32273175423146]
本研究では、教師なしの方法で、条件付き画像生成装置、前景抽出とセグメンテーション、オブジェクトの削除と背景補完を同時に学習する方法を提案する。
Geneversarative Adrial Network と Variational Auto-Encoder を組み合わせることで、複数のエンコーダ、ジェネレータ、ディスクリミネータを組み合わせ、全てのタスクを一度に解くことができる。
論文 参考訳(メタデータ) (2019-12-31T18:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。