論文の概要: Semantic-driven Colorization
- arxiv url: http://arxiv.org/abs/2006.07587v3
- Date: Sat, 14 Aug 2021 13:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:09:09.190407
- Title: Semantic-driven Colorization
- Title(参考訳): セマンティックカラー化
- Authors: Man M. Ho, Lu Zhang, Alexander Raake, Jinjia Zhou
- Abstract要約: 最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
- 参考スコア(独自算出の注目度): 78.88814849391352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent colorization works implicitly predict the semantic information while
learning to colorize black-and-white images. Consequently, the generated color
is easier to be overflowed, and the semantic faults are invisible. As a human
experience in colorization, our brains first detect and recognize the objects
in the photo, then imagine their plausible colors based on many similar objects
we have seen in real life, and finally colorize them, as described in the
teaser. In this study, we simulate that human-like action to let our network
first learn to understand the photo, then colorize it. Thus, our work can
provide plausible colors at a semantic level. Plus, the semantic information of
the learned model becomes understandable and able to interact. Additionally, we
also prove that Instance Normalization is also a missing ingredient for
colorization, then re-design the inference flow of U-Net to have two streams of
data, providing an appropriate way of normalizing the feature maps from the
black-and-white image and its semantic map. As a result, our network can
provide plausible colors competitive to the typical colorization works for
specific objects.
- Abstract(参考訳): 最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
これにより、生成した色はオーバーフローしやすくなり、セマンティクスの障害は見えなくなる。
人間の着色経験として、私たちの脳はまず写真の物体を検知し、認識し、次に実生活で見た多くの類似した物体に基づいて可視色を想像し、最後にそれらを着色する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
このように、我々の研究は意味レベルでもっともらしい色を提供できる。
さらに、学習モデルのセマンティクス情報は理解可能になり、対話できるようになる。
さらに、インスタンスの正規化も色付けの欠如を証明し、2つのデータストリームを持つためにU-Netの推論フローを再設計し、白黒画像とその意味マップから特徴マップを正規化する適切な方法を提供する。
その結果、ネットワークは特定の対象に対して典型的な色付け作業と競合する可視色を提供できる。
関連論文リスト
- Audio-Infused Automatic Image Colorization by Exploiting Audio Scene
Semantics [54.980359694044566]
本論文は,同一シーンに関する付加的な意味情報を含む対応する音声を活用しようとするものである。
実験により、音声誘導は自動着色性能を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2024-01-24T07:22:05Z) - Towards Photorealistic Colorization by Imagination [48.82757902812846]
本稿では,人間の想像力を模倣した画像の自動色付け手法を提案する。
我々の研究は、最先端の画像カラー化手法よりも、よりカラフルで多彩な結果をもたらす。
論文 参考訳(メタデータ) (2021-08-20T14:28:37Z) - Assessing The Importance Of Colours For CNNs In Object Recognition [70.70151719764021]
畳み込みニューラルネットワーク(CNN)は相反する性質を示すことが示されている。
CNNが予測をしながら色情報に大きく依存していることを実証します。
congruent, greyscale, incongruent画像の合同画像で学習したモデルを評価する。
論文 参考訳(メタデータ) (2020-12-12T22:55:06Z) - Is It a Plausible Colour? UCapsNet for Image Colourisation [38.88087332284959]
グレースケール画像のカラー化のための新しいアーキテクチャを提案する。
アーキテクチャは、敵対的な学習パラダイムに従ってトレーニングされたCapsulesに基づいている。
提案手法により, 出口解よりも鮮やかで, 可視な色が生成できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T09:07:13Z) - SCGAN: Saliency Map-guided Colorization with Generative Adversarial
Network [16.906813829260553]
本稿では,SCGAN(Generative Adversarial Network)フレームワークによる完全自動サリエンシマップ誘導色付けを提案する。
これは、意味的混乱と色出血を最小限に抑えるために、着色と塩分濃度マップを共同で予測する。
実験結果から,SCGANは最先端技術よりも,より合理的なカラー化画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2020-11-23T13:06:54Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。