論文の概要: Deep Edge-Aware Interactive Colorization against Color-Bleeding Effects
- arxiv url: http://arxiv.org/abs/2107.01619v1
- Date: Sun, 4 Jul 2021 13:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 03:06:32.204458
- Title: Deep Edge-Aware Interactive Colorization against Color-Bleeding Effects
- Title(参考訳): 色呈色効果に対する深部エッジ対応インタラクティブカラー化
- Authors: Eungyeup Kim, Sanghyeon Lee, Jeonghoon Park, Somi Choi, Choonghyun
Seo, Jaegul Choo
- Abstract要約: 深層画像の着色ネットワークは、しばしば着色するアーティファクトに悩まされる。
そこで本稿では,興味のある領域を対象とした新しいエッジ強化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.386085970550996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep image colorization networks often suffer from the color-bleeding
artifact, a problematic color spreading near the boundaries between adjacent
objects. The color-bleeding artifacts debase the reality of generated outputs,
limiting the applicability of colorization models on a practical application.
Although previous approaches have tackled this problem in an automatic manner,
they often generate imperfect outputs because their enhancements are available
only in limited cases, such as having a high contrast of gray-scale value in an
input image. Instead, leveraging user interactions would be a promising
approach, since it can help the edge correction in the desired regions. In this
paper, we propose a novel edge-enhancing framework for the regions of interest,
by utilizing user scribbles that indicate where to enhance. Our method requires
minimal user effort to obtain satisfactory enhancements. Experimental results
on various datasets demonstrate that our interactive approach has outstanding
performance in improving color-bleeding artifacts against the existing
baselines.
- Abstract(参考訳): 深層画像の着色ネットワークはしばしば、隣接する物体の境界付近に色が広がる色鮮やかな人工物に悩まされる。
色出血アーチファクトは生成された出力の現実を損ね、実用的応用における着色モデルの適用性を制限する。
従来のアプローチでは、この問題を自動で解決していたが、入力画像のグレースケール値のコントラストが高いような限られたケースでのみ利用できるため、しばしば不完全な出力を生成する。
代わりに、ユーザインタラクションを活用することは、望ましい領域におけるエッジ修正に役立つため、有望なアプローチになるでしょう。
本稿では,興味のある領域を対象とした新しいエッジ・エンハンス・フレームワークを提案する。
本手法では,満足な改善を得るためには最小限のユーザ努力が必要である。
各種データセットにおける実験結果から,既存のベースラインに対するカラーブレッドアーティファクトの改善において,インタラクティブなアプローチが優れた性能を示している。
関連論文リスト
- Easing Color Shifts in Score-Based Diffusion Models [0.0]
本稿では,スコアベース拡散モデルにおける色変化を緩和する計算コストの低い解を提案する。
本稿では、入力の空間平均を処理し、スコア関数の平均を予測するために設計された、単純な非線形バイパス接続を提案する。
論文 参考訳(メタデータ) (2023-06-27T23:33:30Z) - DDColor: Towards Photo-Realistic Image Colorization via Dual Decoders [19.560271615736212]
DDColorは画像カラー化のためのデュアルデコーダを備えたエンドツーエンドの手法である。
我々のアプローチには、ピクセルデコーダとクエリベースのカラーデコーダが含まれる。
我々の2つのデコーダは、色とマルチスケールの意味表現の相関を確立するために協力する。
論文 参考訳(メタデータ) (2022-12-22T11:17:57Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Guiding Users to Where to Give Color Hints for Efficient Interactive
Sketch Colorization via Unsupervised Region Prioritization [31.750591990768307]
本稿では,ユーザインタラクションの必要量を削減するモデル誘導型ディープインタラクティブカラー化フレームワークを提案する。
GuidingPainterと呼ばれるこの手法は、モデルが最も色ヒントを必要とする領域を優先します。
論文 参考訳(メタデータ) (2022-10-25T18:50:09Z) - PalGAN: Image Colorization with Palette Generative Adversarial Networks [51.59276436217957]
そこで本研究では,パレット推定とカラーアテンションを統合した新しいGANベースのカラー化手法PalGANを提案する。
PalGANは、定量的評価と視覚比較において最先端の成果を上げ、顕著な多様性、コントラスト、およびエッジ保存の外観を提供する。
論文 参考訳(メタデータ) (2022-10-20T12:28:31Z) - iColoriT: Towards Propagating Local Hint to the Right Region in
Interactive Colorization by Leveraging Vision Transformer [29.426206281291755]
iColoriT は,ユーザヒントを関連領域に伝達する新しい点対話型カラー化視覚変換器である。
提案手法は,デコーダアーキテクチャを置き換える効率的なアップサンプリング技術であるピクセルシャッフルを利用して,リアルタイムに画像のカラー化を行う。
論文 参考訳(メタデータ) (2022-07-14T11:40:32Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Towards Vivid and Diverse Image Colorization with Generative Color Prior [17.087464490162073]
最近のディープラーニングベースの手法は、画像のカラー化を低コストで行うことができる。
我々は,事前学習されたGAN(Generative Adversarial Networks)にカプセル化されている,豊かで多様な色を活かして鮮やかな色を復元することを目的としている。
先進的なデザインと繊細なデザインの強力な生成色のおかげで、我々の手法は1つの前進パスで鮮やかな色を作り出すことができた。
論文 参考訳(メタデータ) (2021-08-19T17:49:21Z) - Image Colorization: A Survey and Dataset [78.89573261114428]
本稿では,最先端の深層学習に基づく画像着色技術に関する包括的調査を行う。
既存の着色技法を7つのクラスに分類し、その性能を規定する重要な要因について論じる。
既存のデータセットと新しいデータセットを用いて、既存の画像のカラー化手法を広範囲に実験的に評価する。
論文 参考訳(メタデータ) (2020-08-25T01:22:52Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。