論文の概要: Deep Edge-Aware Interactive Colorization against Color-Bleeding Effects
- arxiv url: http://arxiv.org/abs/2107.01619v1
- Date: Sun, 4 Jul 2021 13:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 03:06:32.204458
- Title: Deep Edge-Aware Interactive Colorization against Color-Bleeding Effects
- Title(参考訳): 色呈色効果に対する深部エッジ対応インタラクティブカラー化
- Authors: Eungyeup Kim, Sanghyeon Lee, Jeonghoon Park, Somi Choi, Choonghyun
Seo, Jaegul Choo
- Abstract要約: 深層画像の着色ネットワークは、しばしば着色するアーティファクトに悩まされる。
そこで本稿では,興味のある領域を対象とした新しいエッジ強化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.386085970550996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep image colorization networks often suffer from the color-bleeding
artifact, a problematic color spreading near the boundaries between adjacent
objects. The color-bleeding artifacts debase the reality of generated outputs,
limiting the applicability of colorization models on a practical application.
Although previous approaches have tackled this problem in an automatic manner,
they often generate imperfect outputs because their enhancements are available
only in limited cases, such as having a high contrast of gray-scale value in an
input image. Instead, leveraging user interactions would be a promising
approach, since it can help the edge correction in the desired regions. In this
paper, we propose a novel edge-enhancing framework for the regions of interest,
by utilizing user scribbles that indicate where to enhance. Our method requires
minimal user effort to obtain satisfactory enhancements. Experimental results
on various datasets demonstrate that our interactive approach has outstanding
performance in improving color-bleeding artifacts against the existing
baselines.
- Abstract(参考訳): 深層画像の着色ネットワークはしばしば、隣接する物体の境界付近に色が広がる色鮮やかな人工物に悩まされる。
色出血アーチファクトは生成された出力の現実を損ね、実用的応用における着色モデルの適用性を制限する。
従来のアプローチでは、この問題を自動で解決していたが、入力画像のグレースケール値のコントラストが高いような限られたケースでのみ利用できるため、しばしば不完全な出力を生成する。
代わりに、ユーザインタラクションを活用することは、望ましい領域におけるエッジ修正に役立つため、有望なアプローチになるでしょう。
本稿では,興味のある領域を対象とした新しいエッジ・エンハンス・フレームワークを提案する。
本手法では,満足な改善を得るためには最小限のユーザ努力が必要である。
各種データセットにおける実験結果から,既存のベースラインに対するカラーブレッドアーティファクトの改善において,インタラクティブなアプローチが優れた性能を示している。
関連論文リスト
- Learning Inclusion Matching for Animation Paint Bucket Colorization [76.4507878427755]
ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
論文 参考訳(メタデータ) (2024-03-27T08:32:48Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Diffusing Colors: Image Colorization with Text Guided Diffusion [11.727899027933466]
粒状テキストプロンプトを用いた画像拡散技術を利用した新しい画像カラー化フレームワークを提案する。
本手法は,視覚的品質とセマンティック・コヒーレンスの観点から,既存の技術よりも優れた自動化と制御のバランスを与える。
我々のアプローチは、特に色強調と歴史的イメージのカラー化の可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-07T08:59:20Z) - Easing Color Shifts in Score-Based Diffusion Models [0.0]
スコアネットワークにおける非線形バイパス接続の性能を定量化する。
このネットワークアーキテクチャは生成した画像の品質を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-06-27T23:33:30Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Guiding Users to Where to Give Color Hints for Efficient Interactive
Sketch Colorization via Unsupervised Region Prioritization [31.750591990768307]
本稿では,ユーザインタラクションの必要量を削減するモデル誘導型ディープインタラクティブカラー化フレームワークを提案する。
GuidingPainterと呼ばれるこの手法は、モデルが最も色ヒントを必要とする領域を優先します。
論文 参考訳(メタデータ) (2022-10-25T18:50:09Z) - PalGAN: Image Colorization with Palette Generative Adversarial Networks [51.59276436217957]
そこで本研究では,パレット推定とカラーアテンションを統合した新しいGANベースのカラー化手法PalGANを提案する。
PalGANは、定量的評価と視覚比較において最先端の成果を上げ、顕著な多様性、コントラスト、およびエッジ保存の外観を提供する。
論文 参考訳(メタデータ) (2022-10-20T12:28:31Z) - iColoriT: Towards Propagating Local Hint to the Right Region in
Interactive Colorization by Leveraging Vision Transformer [29.426206281291755]
iColoriT は,ユーザヒントを関連領域に伝達する新しい点対話型カラー化視覚変換器である。
提案手法は,デコーダアーキテクチャを置き換える効率的なアップサンプリング技術であるピクセルシャッフルを利用して,リアルタイムに画像のカラー化を行う。
論文 参考訳(メタデータ) (2022-07-14T11:40:32Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Towards Vivid and Diverse Image Colorization with Generative Color Prior [17.087464490162073]
最近のディープラーニングベースの手法は、画像のカラー化を低コストで行うことができる。
我々は,事前学習されたGAN(Generative Adversarial Networks)にカプセル化されている,豊かで多様な色を活かして鮮やかな色を復元することを目的としている。
先進的なデザインと繊細なデザインの強力な生成色のおかげで、我々の手法は1つの前進パスで鮮やかな色を作り出すことができた。
論文 参考訳(メタデータ) (2021-08-19T17:49:21Z) - Image Colorization: A Survey and Dataset [94.59768013860668]
本稿では,最先端の深層学習に基づく画像着色技術に関する包括的調査を行う。
既存の着色技法を7つのクラスに分類し、その性能を規定する重要な要因について論じる。
我々は既存のデータセットと提案した画像の両方を用いて、既存の画像のカラー化手法を広範囲に実験的に評価する。
論文 参考訳(メタデータ) (2020-08-25T01:22:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。