論文の概要: TransFill: Reference-guided Image Inpainting by Merging Multiple Color
and Spatial Transformations
- arxiv url: http://arxiv.org/abs/2103.15982v1
- Date: Mon, 29 Mar 2021 22:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 05:15:19.711371
- Title: TransFill: Reference-guided Image Inpainting by Merging Multiple Color
and Spatial Transformations
- Title(参考訳): TransFill:複数色と空間変換を組み合わせた参照誘導画像の描画
- Authors: Yuqian Zhou, Connelly Barnes, Eli Shechtman, Sohrab Amirghodsi
- Abstract要約: 本稿では,対象画像とシーン内容を共有する別のソース画像を参照して,穴を埋めるマルチホモグラフィ変換核融合法であるtransfillを提案する。
色を調整し、各ホモグラフィー歪んだソースイメージにピクセルレベルのワーピングを適用して、ターゲットとの整合性を高めることを学びます。
本手法は,多種多様なベースラインと色差にまたがる画像対の最先端性能を実現し,ユーザ提供画像対に一般化する。
- 参考スコア(独自算出の注目度): 35.9576572490994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image inpainting is the task of plausibly restoring missing pixels within a
hole region that is to be removed from a target image. Most existing
technologies exploit patch similarities within the image, or leverage
large-scale training data to fill the hole using learned semantic and texture
information. However, due to the ill-posed nature of the inpainting task, such
methods struggle to complete larger holes containing complicated scenes. In
this paper, we propose TransFill, a multi-homography transformed fusion method
to fill the hole by referring to another source image that shares scene
contents with the target image. We first align the source image to the target
image by estimating multiple homographies guided by different depth levels. We
then learn to adjust the color and apply a pixel-level warping to each
homography-warped source image to make it more consistent with the target.
Finally, a pixel-level fusion module is learned to selectively merge the
different proposals. Our method achieves state-of-the-art performance on pairs
of images across a variety of wide baselines and color differences, and
generalizes to user-provided image pairs.
- Abstract(参考訳): 画像インペインティングは、対象画像から削除されるホール領域内の欠落画素を適切に復元するタスクである。
既存の技術のほとんどは、イメージ内のパッチの類似性を利用するか、大規模トレーニングデータを利用して学習したセマンティック情報とテクスチャ情報を使用して穴を埋める。
しかし、塗装作業が不適切であることから、複雑なシーンを含む大きな穴を埋めるのに苦労している。
本稿では,対象画像とシーン内容を共有する別のソース画像を参照して,穴を埋めるマルチホモグラフィ変換核融合法であるtransfillを提案する。
まず,異なる深さレベルに導かれた複数のホモグラフィを推定することにより,対象画像と対象画像とを整合させる。
次に、色を調整し、各ホモグラフィ処理したソース画像に画素レベルのワープを適用し、ターゲットとより整合性を持たせる。
最後に、ピクセルレベルの融合モジュールが学習され、異なる提案を選択的にマージする。
本手法は,多種多様なベースラインと色差にまたがる画像対の最先端性能を実現し,ユーザ提供画像対に一般化する。
関連論文リスト
- Making Images from Images: Interleaving Denoising and Transformation [5.776000002820102]
我々は、画像の内容だけでなく、所望の画像を互いに変換するために必要なパラメータ化変換も学習する。
画像変換を学習することで、任意のソースイメージを事前に指定することができる。
従来の手法とは異なり、リージョンの数を増やすことで、この問題がより簡単になり、結果が改善される。
論文 参考訳(メタデータ) (2024-11-24T17:13:11Z) - Continuous-Multiple Image Outpainting in One-Step via Positional Query
and A Diffusion-based Approach [104.2588068730834]
本稿では, 文献で未解決の2つの方向において, 画像出力の技術的フロンティアを推し進める。
トレーニング済みのバックボーンネットワークに依存しない手法を開発した。
提案手法(PQDiff)を公開ベンチマークで評価し,最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-28T13:00:38Z) - DIAR: Deep Image Alignment and Reconstruction using Swin Transformers [3.1000291317724993]
画像歪みのある画像を含むデータセットを作成する。
我々は、対応する地平線ホモグラフをラベルとして、視点歪みを生成する。
データセットを使用して、Swinトランスフォーマーモデルをトレーニングし、シーケンシャルな画像データを分析します。
論文 参考訳(メタデータ) (2023-10-17T21:59:45Z) - SuperInpaint: Learning Detail-Enhanced Attentional Implicit
Representation for Super-resolutional Image Inpainting [26.309834304515544]
我々はSuperInpaintと呼ばれる課題の画像復元タスクを導入する。
この課題は、低解像度画像中の欠落領域を再構築し、任意の高解像度画像を生成することである。
本論文では,SuperInpaintを1つのモデルで実現可能な細部強調型暗黙表現を提案する。
論文 参考訳(メタデータ) (2023-07-26T20:28:58Z) - Cylin-Painting: Seamless {360\textdegree} Panoramic Image Outpainting
and Beyond [136.18504104345453]
塗り絵と塗り絵の間に有意義な協調関係を持つキリン塗り絵の枠組みを提示する。
提案アルゴリズムは、オブジェクト検出、深さ推定、画像超解像などの他のパノラマ視覚タスクに効果的に拡張できる。
論文 参考訳(メタデータ) (2022-04-18T21:18:49Z) - In&Out : Diverse Image Outpainting via GAN Inversion [89.84841983778672]
image outpaintingは、利用可能なコンテンツを超えて、入力画像の意味的に一貫した拡張を求める。
本研究では、生成的対向ネットワークの反転の観点から問題を定式化する。
私達の発電機はイメージの彼らの共同潜入コードそして個々の位置で調節されるマイクロ パッチをレンダリングします。
論文 参考訳(メタデータ) (2021-04-01T17:59:10Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。