論文の概要: Instance-aware Image Colorization
- arxiv url: http://arxiv.org/abs/2005.10825v1
- Date: Thu, 21 May 2020 17:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:48:31.860474
- Title: Instance-aware Image Colorization
- Title(参考訳): インスタンス対応画像のカラー化
- Authors: Jheng-Wei Su, Hung-Kuo Chu, Jia-Bin Huang
- Abstract要約: 本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
- 参考スコア(独自算出の注目度): 51.12040118366072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image colorization is inherently an ill-posed problem with multi-modal
uncertainty. Previous methods leverage the deep neural network to map input
grayscale images to plausible color outputs directly. Although these
learning-based methods have shown impressive performance, they usually fail on
the input images that contain multiple objects. The leading cause is that
existing models perform learning and colorization on the entire image. In the
absence of a clear figure-ground separation, these models cannot effectively
locate and learn meaningful object-level semantics. In this paper, we propose a
method for achieving instance-aware colorization. Our network architecture
leverages an off-the-shelf object detector to obtain cropped object images and
uses an instance colorization network to extract object-level features. We use
a similar network to extract the full-image features and apply a fusion module
to full object-level and image-level features to predict the final colors. Both
colorization networks and fusion modules are learned from a large-scale
dataset. Experimental results show that our work outperforms existing methods
on different quality metrics and achieves state-of-the-art performance on image
colorization.
- Abstract(参考訳): 画像のカラー化は本質的にマルチモーダル不確実性の問題である。
従来の方法はディープニューラルネットワークを利用して入力されたグレースケールの画像を直接可視色出力にマッピングする。
これらの学習に基づく手法は印象的な性能を示しているが、通常は複数のオブジェクトを含む入力画像で失敗する。
主な原因は、既存のモデルが画像全体の学習と彩色を行うことである。
明確な図形の分離がなければ、これらのモデルは意味のあるオブジェクトレベルの意味論を効果的に見つけ、学習することはできない。
本稿では,インスタンス認識カラー化を実現する手法を提案する。
当社のネットワークアーキテクチャは,既成のオブジェクト検出器を利用してクロッピングされたオブジェクトイメージを取得し,インスタンスカラー化ネットワークを使用してオブジェクトレベルの特徴を抽出する。
類似したネットワークを用いて全画像の特徴を抽出し、オブジェクトレベルと画像レベルの機能に融合モジュールを適用して最終的な色を予測する。
カラー化ネットワークと融合モジュールはどちらも、大規模なデータセットから学習される。
実験の結果,本研究は品質指標の既存手法よりも優れており,画像のカラー化における最先端性能を実現していることがわかった。
関連論文リスト
- Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Incorporating Ensemble and Transfer Learning For An End-To-End
Auto-Colorized Image Detection Model [0.0]
本稿では,移動学習とアンサンブル学習の利点を組み合わせた新たな手法を提案する。
提案したモデルは、94.55%から99.13%の精度で有望な結果を示す。
論文 参考訳(メタデータ) (2023-09-25T19:22:57Z) - ParaColorizer: Realistic Image Colorization using Parallel Generative
Networks [1.7778609937758327]
グレースケール画像のカラー化は、情報復元のためのAIの魅力的な応用である。
並列なGANベースのカラー化フレームワークを提案する。
マルチモーダル問題を評価するために一般的に使用される非知覚的評価指標の欠点を示す。
論文 参考訳(メタデータ) (2022-08-17T13:49:44Z) - Image Colorization using U-Net with Skip Connections and Fusion Layer on
Landscape Images [1.784933900656067]
本稿では,U-NetモデルとFusion Layer機能を組み合わせたグレースケール画像の自動カラー化手法を提案する。
このアプローチにより、事前訓練されたU-Netから画像のカラー化を学ぶことができる。
論文 参考訳(メタデータ) (2022-05-25T15:41:01Z) - TUCaN: Progressively Teaching Colourisation to Capsules [13.50327471049997]
TUCaN(Tiny UCapsNet)という新しいダウンサンプリングアップサンプリングアーキテクチャを提案する。
我々は,色を量化空間内のビンとして識別するピクセルごとの色分類タスクとして,この問題に対処する。
ネットワークをトレーニングするために、標準的なエンドツーエンド学習法とは対照的に、オブジェクトのコンテキストを抽出するプログレッシブラーニング方式を提案する。
論文 参考訳(メタデータ) (2021-06-29T08:44:15Z) - Collaboration among Image and Object Level Features for Image
Colourisation [25.60139324272782]
画像のカラー化は不適切な問題であり、入力データムに存在するコンテキストとオブジェクトインスタンスに依存する複数の正しいソリューションがある。
従来のアプローチは、強力なユーザーインタラクションを必要とするか、画像レベル(コンテキスト)機能を学ぶために畳み込みニューラルネットワーク(CNN)の能力を利用して、この問題を攻撃しました。
コンボリューションによって得られる画像レベルの特徴とカプセルによってキャプチャされるオブジェクトレベルの特徴を分離する,UCapsNetという単一のネットワークを提案する。
そして,異なる層間の接続をスキップすることで,これらの分離要因間の協調を強制し,高品質で再現可能な画像彩色を実現する。
論文 参考訳(メタデータ) (2021-01-19T11:48:12Z) - Image Colorization: A Survey and Dataset [94.59768013860668]
本稿では,最先端の深層学習に基づく画像着色技術に関する包括的調査を行う。
既存の着色技法を7つのクラスに分類し、その性能を規定する重要な要因について論じる。
我々は既存のデータセットと提案した画像の両方を用いて、既存の画像のカラー化手法を広範囲に実験的に評価する。
論文 参考訳(メタデータ) (2020-08-25T01:22:52Z) - Semantic-driven Colorization [78.88814849391352]
最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
論文 参考訳(メタデータ) (2020-06-13T08:13:30Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。