論文の概要: Image Inpainting Using Wasserstein Generative Adversarial Imputation
Network
- arxiv url: http://arxiv.org/abs/2106.15341v1
- Date: Wed, 23 Jun 2021 05:55:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-04 20:31:39.346618
- Title: Image Inpainting Using Wasserstein Generative Adversarial Imputation
Network
- Title(参考訳): Wasserstein生成逆数インプットネットワークを用いた画像インパインティング
- Authors: Daniel Va\v{s}ata, Tom\'a\v{s} Halama, Magda Friedjungov\'a
- Abstract要約: 本稿では,Wasserstein Generative Adversarial Imputation Networkに基づく画像インペイントモデルを提案する。
普遍計算モデルは、十分な品質で欠落の様々なシナリオを扱うことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image inpainting is one of the important tasks in computer vision which
focuses on the reconstruction of missing regions in an image. The aim of this
paper is to introduce an image inpainting model based on Wasserstein Generative
Adversarial Imputation Network. The generator network of the model uses
building blocks of convolutional layers with different dilation rates, together
with skip connections that help the model reproduce fine details of the output.
This combination yields a universal imputation model that is able to handle
various scenarios of missingness with sufficient quality. To show this
experimentally, the model is simultaneously trained to deal with three
scenarios given by missing pixels at random, missing various smaller square
regions, and one missing square placed in the center of the image. It turns out
that our model achieves high-quality inpainting results on all scenarios.
Performance is evaluated using peak signal-to-noise ratio and structural
similarity index on two real-world benchmark datasets, CelebA faces and Paris
StreetView. The results of our model are compared to biharmonic imputation and
to some of the other state-of-the-art image inpainting methods.
- Abstract(参考訳): 画像インペイントは、画像内の欠落した領域の再構築に焦点を当てたコンピュータビジョンにおける重要なタスクの1つである。
本研究の目的は,Wasserstein Generative Adversarial Imputation Networkに基づく画像インペイントモデルの導入である。
モデルのジェネレータネットワークは、異なるダイレーションレートの畳み込み層の構築ブロックと、モデルが出力の詳細を再現するのに役立つスキップ接続を使用する。
この組み合わせは、不足する様々なシナリオを十分な品質で扱える普遍的な計算モデルをもたらす。
これを実験的に示すために、このモデルはランダムなピクセルの欠落、様々な小さな平方領域の欠落、画像の中心に1つの欠落した四角の欠落という3つのシナリオを同時に扱うように訓練されている。
私たちのモデルはすべてのシナリオで高品質なインペインティング結果を達成しています。
2つの実世界のベンチマークデータセット、celeba facesとparis streetviewにおけるピーク信号対雑音比と構造類似性指数を用いて性能評価を行う。
本モデルの結果は,バイハーモニック・インパクション法や,他の最先端画像インパインティング法と比較された。
関連論文リスト
- Learning Gaussian Representation for Eye Fixation Prediction [54.88001757991433]
既存のアイ固定予測方法は、入力画像から原固定点から生成された対応する濃密な固定マップへのマッピングを行う。
本稿ではアイフィグレーションモデリングのためのガウス表現について紹介する。
我々は,リアルタイムな固定予測を実現するために,軽量なバックボーン上にフレームワークを設計する。
論文 参考訳(メタデータ) (2024-03-21T20:28:22Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Kandinsky: an Improved Text-to-Image Synthesis with Image Prior and
Latent Diffusion [50.59261592343479]
本稿では、潜伏拡散アーキテクチャの新しい探索であるKandinsky1を紹介する。
提案したモデルは、CLIPのイメージ埋め込みにテキスト埋め込みをマッピングするために別々に訓練されている。
また,テキスト・ツー・イメージ生成,画像融合,テキスト・画像融合,画像のバリエーション生成,テキスト・インペイント/アウトペイントなど,多様な生成モードをサポートするユーザフレンドリーなデモシステムも展開した。
論文 参考訳(メタデータ) (2023-10-05T12:29:41Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [63.54342601757723]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - WavePaint: Resource-efficient Token-mixer for Self-supervised Inpainting [2.3014300466616078]
本稿では、計算効率の良いWaveMixベースの完全畳み込みアーキテクチャであるWavePaintを用いて、視覚変換器から分岐する。
2次元離散ウェーブレット変換(DWT)を用いて、畳み込み層とともに、空間的および多重解像度のトークン混合を行う。
我々のモデルは、CelebA-HQデータセットの現在のGANアーキテクチャよりも優れている。
論文 参考訳(メタデータ) (2023-07-01T18:41:34Z) - Single Image Super-Resolution via a Dual Interactive Implicit Neural
Network [5.331665215168209]
本稿では,任意のスケール因子における単一画像の超解像処理のための新しい暗黙的ニューラルネットワークを提案する。
公開されているベンチマークデータセット上で、最先端技術に対するアプローチの有効性と柔軟性を実証する。
論文 参考訳(メタデータ) (2022-10-23T02:05:19Z) - Image Aesthetics Assessment Using Graph Attention Network [17.277954886018353]
画像美学評価のためのグラフニューラルネットワークに基づく2段階のフレームワークを提案する。
まず、入力画像がグラフとしてモデル化され、元のアスペクト比と解像度を維持する特徴グラフ表現を提案する。
次に,この特徴グラフを用いて,視覚的注意を用いて入力画像の異なる領域間の意味的関係をキャプチャするグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-26T12:52:46Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Enhanced Residual Networks for Context-based Image Outpainting [0.0]
深いモデルは、保持された情報を通してコンテキストや外挿を理解するのに苦労する。
現在のモデルでは、生成的敵ネットワークを使用して、局所的な画像特徴の整合性が欠如し、偽のように見える結果を生成する。
本稿では,局所的・大域的判別器の使用と,ネットワークの符号化部における残差ブロックの追加という,この問題を改善するための2つの方法を提案する。
論文 参考訳(メタデータ) (2020-05-14T05:14:26Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。