論文の概要: Image Inpainting with External-internal Learning and Monochromic
Bottleneck
- arxiv url: http://arxiv.org/abs/2104.09068v1
- Date: Mon, 19 Apr 2021 06:22:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:50:36.436958
- Title: Image Inpainting with External-internal Learning and Monochromic
Bottleneck
- Title(参考訳): 外部学習とモノクロミックボトルネックを用いた画像インペインティング
- Authors: Tengfei Wang, Hao Ouyang, Qifeng Chen
- Abstract要約: そこで本稿では,画像インパインティングモデルによるこれらのアーティファクトの除去を支援する,モノクロのボトルネックを持つ外部インパインティングスキームを提案する。
外部学習段階において,モノクロ空間における欠落構造と詳細を再構成し,学習次元を減らす。
内部学習段階において,一貫した色復元のためのプログレッシブ学習戦略を用いた新しい内部色伝播法を提案する。
- 参考スコア(独自算出の注目度): 39.89676105875726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although recent inpainting approaches have demonstrated significant
improvements with deep neural networks, they still suffer from artifacts such
as blunt structures and abrupt colors when filling in the missing regions. To
address these issues, we propose an external-internal inpainting scheme with a
monochromic bottleneck that helps image inpainting models remove these
artifacts. In the external learning stage, we reconstruct missing structures
and details in the monochromic space to reduce the learning dimension. In the
internal learning stage, we propose a novel internal color propagation method
with progressive learning strategies for consistent color restoration.
Extensive experiments demonstrate that our proposed scheme helps image
inpainting models produce more structure-preserved and visually compelling
results.
- Abstract(参考訳): 最近の塗装アプローチはディープニューラルネットワークで大幅に改善されているが、不足する領域を埋める際に、鈍い構造や急激な色などのアーティファクトに悩まされている。
これらの問題に対処するため,単色ボトルネックを用いた外部インペイント方式を提案し,画像インペイントモデルによりこれらのアーティファクトを除去する。
外部学習段階において,モノクロ空間における欠落構造と詳細を再構成し,学習次元を減らす。
内部学習段階において,一貫した色復元のための進行学習戦略を備えた内部色伝搬法を提案する。
広汎な実験により,提案手法は,より構造が保存され,視覚的に説得力のある結果が得られることを示す。
関連論文リスト
- AttentionPainter: An Efficient and Adaptive Stroke Predictor for Scene Painting [82.54770866332456]
ストロークベースのレンダリング(SBR)は、入力画像をパラメータ化されたストロークのシーケンスに分解することを目的としており、入力画像に似た絵に描画することができる。
単一ステップのニューラルペイントのための効率よく適応的なモデルであるAttentionPainterを提案する。
論文 参考訳(メタデータ) (2024-10-21T18:36:45Z) - Stroke-based Neural Painting and Stylization with Dynamically Predicted
Painting Region [66.75826549444909]
ストロークベースのレンダリングは、ストロークのセットで画像を再現することを目的としている。
本研究では,現在のキャンバスに基づいて絵画領域を予測する合成ニューラルネットワークを提案する。
我々は、新しい微分可能な距離変換損失を伴って、ストロークベースのスタイル転送に拡張する。
論文 参考訳(メタデータ) (2023-09-07T06:27:39Z) - Structure-guided Image Outpainting [2.7215474244966296]
画像の露光は、大規模な領域の喪失と、あまり正当でない近隣情報による困難を伴う。
本稿では,GAN(Generative Adrial Network)と条件エッジに基づくディープラーニング手法を提案する。
新たに追加されたセマンティック埋め込み損失は、実際に有効であることが証明されている。
論文 参考訳(メタデータ) (2022-12-21T20:24:24Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Improve Deep Image Inpainting by Emphasizing the Complexity of Missing
Regions [20.245637164975594]
本稿では,古典的画像複雑性メトリクスの助けを借りて,ディープイメージのインペイントモデルを強化する。
学習手順におけるバッチ選択を導くために、不足複雑性と前方損失からなる知識支援指標を示す。
我々は,最近開発された様々なデータセットに対する画像インペイントモデルの改良を実験的に実証した。
論文 参考訳(メタデータ) (2022-02-13T09:14:52Z) - TUCaN: Progressively Teaching Colourisation to Capsules [13.50327471049997]
TUCaN(Tiny UCapsNet)という新しいダウンサンプリングアップサンプリングアーキテクチャを提案する。
我々は,色を量化空間内のビンとして識別するピクセルごとの色分類タスクとして,この問題に対処する。
ネットワークをトレーニングするために、標準的なエンドツーエンド学習法とは対照的に、オブジェクトのコンテキストを抽出するプログレッシブラーニング方式を提案する。
論文 参考訳(メタデータ) (2021-06-29T08:44:15Z) - Neural Re-Rendering of Humans from a Single Image [80.53438609047896]
本稿では,新しいユーザ定義のポーズと視点の下での人間のニューラルリレンダリング手法を提案する。
私たちのアルゴリズムは、単一の画像から再構築できるパラメトリックメッシュとして体ポーズと形状を表します。
論文 参考訳(メタデータ) (2021-01-11T18:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。