論文の概要: Is It a Plausible Colour? UCapsNet for Image Colourisation
- arxiv url: http://arxiv.org/abs/2012.02478v1
- Date: Fri, 4 Dec 2020 09:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:48:55.663071
- Title: Is It a Plausible Colour? UCapsNet for Image Colourisation
- Title(参考訳): 色は可塑性か?
画像カラー化のためのUCapsNet
- Authors: Rita Pucci, Christian Micheloni, Gian Luca Foresti, Niki Martinel
- Abstract要約: グレースケール画像のカラー化のための新しいアーキテクチャを提案する。
アーキテクチャは、敵対的な学習パラダイムに従ってトレーニングされたCapsulesに基づいている。
提案手法により, 出口解よりも鮮やかで, 可視な色が生成できることが示唆された。
- 参考スコア(独自算出の注目度): 38.88087332284959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human beings can imagine the colours of a grayscale image with no particular
effort thanks to their ability of semantic feature extraction. Can an
autonomous system achieve that? Can it hallucinate plausible and vibrant
colours? This is the colourisation problem. Different from existing works
relying on convolutional neural network models pre-trained with supervision, we
cast such colourisation problem as a self-supervised learning task. We tackle
the problem with the introduction of a novel architecture based on Capsules
trained following the adversarial learning paradigm. Capsule networks are able
to extract a semantic representation of the entities in the image but loose
details about their spatial information, which is important for colourising a
grayscale image. Thus our UCapsNet structure comes with an encoding phase that
extracts entities through capsules and spatial details through convolutional
neural networks. A decoding phase merges the entity features with the spatial
features to hallucinate a plausible colour version of the input datum. Results
on the ImageNet benchmark show that our approach is able to generate more
vibrant and plausible colours than exiting solutions and achieves superior
performance than models pre-trained with supervision.
- Abstract(参考訳): 人間は、意味的特徴抽出の能力のおかげで、特に努力することなく、グレースケールの画像の色を想像することができる。
自律システムはそれを達成できますか?
幻覚は可視で活気ある色にできるのか?
これは色付けの問題です。
事前学習した畳み込みニューラルネットワークモデルに依存する既存の作業とは違って,このような色分け問題を自己教師付き学習タスクとしてキャストした。
逆学習パラダイムに従って学習したカプセルに基づく新しいアーキテクチャを導入することで,この問題に対処する。
カプセルネットワークは、画像内のエンティティのセマンティック表現を抽出することができるが、その空間情報の詳細は緩く、グレースケール画像のカラー化には重要である。
したがって、我々のucapsnet構造は、畳み込みニューラルネットワークを通してカプセルや空間的詳細を通して実体を抽出するエンコーディングフェーズを伴います。
復号位相は、エンティティ特徴と空間特徴とを結合し、入力されたデータムの可算な色バージョンを暗示する。
ImageNetベンチマークの結果、我々のアプローチは出口ソリューションよりも鮮やかで可視な色を生成でき、監督下で事前訓練されたモデルよりも優れた性能を達成できることがわかった。
関連論文リスト
- Name Your Colour For the Task: Artificially Discover Colour Naming via
Colour Quantisation Transformer [62.75343115345667]
そこで本研究では,色空間を定量化しつつ,画像上での認識を維持しつつ,色空間を定量化する新しい色量子化変換器CQFormerを提案する。
人工色システムと人間の言語における基本色用語との一貫性のある進化パターンを観察する。
我々のカラー量子化法は、画像記憶を効果的に圧縮する効率的な量子化法も提供する。
論文 参考訳(メタデータ) (2022-12-07T03:39:18Z) - Learning to Structure an Image with Few Colors and Beyond [59.34619548026885]
カラー量子化ネットワークであるColorCNNを提案し、分類損失を最小限に抑えて、限られた色空間で画像を構成することを学習する。
複数の色空間サイズ構成をサポートするColorCNN+を導入し、大色空間における認識精度の低下と望ましくない視覚的忠実度に関する過去の問題に対処する。
潜在的な応用として、ネットワーク認識のための画像圧縮手法としてColorCNNが利用可能であることを示す。
論文 参考訳(メタデータ) (2022-08-17T17:59:15Z) - Collaboration among Image and Object Level Features for Image
Colourisation [25.60139324272782]
画像のカラー化は不適切な問題であり、入力データムに存在するコンテキストとオブジェクトインスタンスに依存する複数の正しいソリューションがある。
従来のアプローチは、強力なユーザーインタラクションを必要とするか、画像レベル(コンテキスト)機能を学ぶために畳み込みニューラルネットワーク(CNN)の能力を利用して、この問題を攻撃しました。
コンボリューションによって得られる画像レベルの特徴とカプセルによってキャプチャされるオブジェクトレベルの特徴を分離する,UCapsNetという単一のネットワークを提案する。
そして,異なる層間の接続をスキップすることで,これらの分離要因間の協調を強制し,高品質で再現可能な画像彩色を実現する。
論文 参考訳(メタデータ) (2021-01-19T11:48:12Z) - The color out of space: learning self-supervised representations for
Earth Observation imagery [10.019106184219515]
衛星画像から有意義な表現を学習し、その高次元スペクトル帯域を利用して可視色を再構成する。
我々は,土地被覆分類(BigEarthNet)と西ナイルウイルス検出(West Nile Virus detection)について実験を行い,着色が特徴抽出器を訓練するための確固とした前提条件であることを示した。
論文 参考訳(メタデータ) (2020-06-22T10:21:36Z) - Semantic-driven Colorization [78.88814849391352]
最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
論文 参考訳(メタデータ) (2020-06-13T08:13:30Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。