論文の概要: Panoramic Image Inpainting With Gated Convolution And Contextual
Reconstruction Loss
- arxiv url: http://arxiv.org/abs/2402.02936v1
- Date: Mon, 5 Feb 2024 11:58:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 16:36:11.762454
- Title: Panoramic Image Inpainting With Gated Convolution And Contextual
Reconstruction Loss
- Title(参考訳): ゲート畳み込みとコンテクスト再構成損失を伴うパノラマ画像のインパインティング
- Authors: Li Yu, Yanjun Gao, Farhad Pakdaman, Moncef Gabbouj
- Abstract要約: フェースジェネレータ,キューブジェネレータ,サイドブランチ,および2つの識別器からなるパノラマ画像インペイントフレームワークを提案する。
提案手法は,PSNRおよびSSIMの観点から,SUN360ストリートビューデータセット上の最先端(SOTA)手法と比較する。
- 参考スコア(独自算出の注目度): 19.659176149635417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based methods have demonstrated encouraging results in tackling
the task of panoramic image inpainting. However, it is challenging for existing
methods to distinguish valid pixels from invalid pixels and find suitable
references for corrupted areas, thus leading to artifacts in the inpainted
results. In response to these challenges, we propose a panoramic image
inpainting framework that consists of a Face Generator, a Cube Generator, a
side branch, and two discriminators. We use the Cubemap Projection (CMP) format
as network input. The generator employs gated convolutions to distinguish valid
pixels from invalid ones, while a side branch is designed utilizing contextual
reconstruction (CR) loss to guide the generators to find the most suitable
reference patch for inpainting the missing region. The proposed method is
compared with state-of-the-art (SOTA) methods on SUN360 Street View dataset in
terms of PSNR and SSIM. Experimental results and ablation study demonstrate
that the proposed method outperforms SOTA both quantitatively and
qualitatively.
- Abstract(参考訳): 深層学習に基づく手法は、パノラマ画像の塗布作業の促進効果を示す。
しかし、有効な画素を無効な画素と区別し、破損した領域の適切な参照を見つける既存の手法は困難であり、その結果、被写体化に繋がる。
これらの課題に対応して,顔生成器,立方体生成器,サイドブランチ,および2つの識別器からなるパノラマ画像インペインティングフレームワークを提案する。
ネットワーク入力にはCubemap Projection(CMP)フォーマットを使用します。
このジェネレータは、有効な画素を無効画素と区別するためにゲート畳み込みを用いるが、サイドブランチは、コンテクストリコンストラクション(cr)損失を利用して、ジェネレータが行方不明領域を塗りつぶすのに最も適した参照パッチを見つけるようガイドする。
提案手法は,PSNRおよびSSIMの観点から,SUN360ストリートビューデータセット上の最先端(SOTA)手法と比較する。
実験結果とアブレーション実験により,提案手法はSOTAを定量的にも定性的にも優れていることが示された。
関連論文リスト
- Sketch-guided Image Inpainting with Partial Discrete Diffusion Process [5.005162730122933]
スケッチ誘導インペイントのための新しい部分離散拡散法(PDDP)を提案する。
PDDPは画像のマスキング領域を破損させ、手描きスケッチで条件付けられたこれらのマスキング領域を再構築する。
提案するトランスモジュールは,2つの入力を受信する。マスク領域を含む画像はインペイントされ,クエリスケッチは逆拡散過程をモデル化する。
論文 参考訳(メタデータ) (2024-04-18T07:07:38Z) - Image Deblurring using GAN [0.0]
本研究は,GAN(Generative Adversarial Network)の画像処理への応用に焦点を当てた。
プロジェクトはGANモデルのインフローを定義し、GoPROデータセットでトレーニングする。
ネットワークは画像のシャープなピクセルを取得でき、平均29.3ピーク信号対雑音比(PSNR)と0.72構造類似度評価(SSIM)を実現している。
論文 参考訳(メタデータ) (2023-12-15T02:43:30Z) - Inpainting borehole images using Generative Adversarial Networks [0.0]
電線マイクロ抵抗画像ツールによるボアホール画像のギャップフィリングに対するGANに基づくアプローチを提案する。
提案手法では, 画像の欠落した領域を描画するために, ジェネレータ, グローバル判別器, ローカル判別器を利用する。
論文 参考訳(メタデータ) (2023-01-15T18:15:52Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Inverse Problems Leveraging Pre-trained Contrastive Representations [88.70821497369785]
破損したデータの表現を復元するための新しい逆問題群について検討する。
コントラスト目的を用いた教師付きインバージョン手法を提案する。
提案手法は,幅広いフォワード演算子においてラベル付きデータのごく一部であっても,エンド・ツー・エンドのベースラインよりも優れる。
論文 参考訳(メタデータ) (2021-10-14T15:06:30Z) - FT-TDR: Frequency-guided Transformer and Top-Down Refinement Network for
Blind Face Inpainting [77.78305705925376]
ブラインド・フェイス・インペインティング(ブラインド・フェイス・インペインティング)とは、顔画像の劣化した領域を明確に示さずに、視覚コンテンツを再構築する作業である。
本稿では、これらの課題に対処するために、周波数誘導変換器とTop-Down Refinement Network(FT-TDR)と呼ばれる新しい2段階ブラインドフェイス塗装法を提案する。
論文 参考訳(メタデータ) (2021-08-10T03:12:01Z) - ReGO: Reference-Guided Outpainting for Scenery Image [82.21559299694555]
生成的敵対学習は、与えられた画像に対して意味的一貫したコンテンツを生成することによって、画像の画質を向上した。
本研究は, 近隣の画素を借用することにより, テクスチャに富んだ結果を合成する原理について検討する。
生成した部品のスタイルが参照画像の影響を受けないようにするために,ReGOを増強し,スタイル一貫性のある結果を合成するスタイルランキングの損失が提案されている。
論文 参考訳(メタデータ) (2021-06-20T02:34:55Z) - Image Inpainting with Edge-guided Learnable Bidirectional Attention Maps [85.67745220834718]
不規則な穴の画像インペインティングを改善するためのエッジガイド学習可能な双方向注意マップ(Edge-LBAM)を紹介します。
当社のEdge-LBAMメソッドには、予測エッジによる構造認識マスク更新を含むデュアルプロシージャが含まれています。
広範な実験により,エッジlbamはコヒーレントな画像構造を生成し,色差やぼやけを防止できることがわかった。
論文 参考訳(メタデータ) (2021-04-25T07:25:16Z) - Pixel-wise Dense Detector for Image Inpainting [34.721991959357425]
近年のGANベースの画像インパインティング手法では,画像の識別とスカラー出力に平均的手法が採用されている。
本稿では, 画像インパインティングのための新たな検出ベース生成フレームワークを提案し, 逆方向のプロセスにおいてmin-max戦略を採用する。
複数の公開データセットの実験は、提案したフレームワークの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-11-04T13:45:27Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z) - Pixel-wise Conditioned Generative Adversarial Networks for Image
Synthesis and Completion [3.8807073304999355]
GAN(Generative Adversarial Networks)は、教師なし画像生成に成功している。
画素数が少ない場合, GANの条件付けの有効性について検討する。
本稿では,GAN目標関数に明示的なコスト項を付加し,画素単位の条件を強制するモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-04T13:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。