論文の概要: Colorizing Monochromatic Radiance Fields
- arxiv url: http://arxiv.org/abs/2402.12184v1
- Date: Mon, 19 Feb 2024 14:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 16:11:04.667718
- Title: Colorizing Monochromatic Radiance Fields
- Title(参考訳): 単色放射フィールドのカラー化
- Authors: Yean Cheng, Renjie Wan, Shuchen Weng, Chengxuan Zhu, Yakun Chang,
Boxin Shi
- Abstract要約: 単色放射光場からの再現色を,ラボ色空間における表現・予測課題として検討する。
まず、単色画像を用いて輝度と密度の表現を構築することにより、画像色化モジュールに基づいて色表現を再現できる。
次に、輝度、密度、色を表現することで、カラフルな暗黙のモデルを再現する。
- 参考スコア(独自算出の注目度): 55.695149357101755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though Neural Radiance Fields (NeRF) can produce colorful 3D representations
of the world by using a set of 2D images, such ability becomes non-existent
when only monochromatic images are provided. Since color is necessary in
representing the world, reproducing color from monochromatic radiance fields
becomes crucial. To achieve this goal, instead of manipulating the
monochromatic radiance fields directly, we consider it as a
representation-prediction task in the Lab color space. By first constructing
the luminance and density representation using monochromatic images, our
prediction stage can recreate color representation on the basis of an image
colorization module. We then reproduce a colorful implicit model through the
representation of luminance, density, and color. Extensive experiments have
been conducted to validate the effectiveness of our approaches. Our project
page: https://liquidammonia.github.io/color-nerf.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は2次元画像の集合を用いて、世界のカラフルな3次元表現を生成できるが、単色画像のみを提供すると、そのような能力は存在しない。
世界を表現するには色が必要であるため、単色放射フィールドから色を再現することが重要となる。
この目的を達成するために,単色放射場を直接操作するのではなく,実験室カラー空間における表現予測タスクと考える。
まず、単色画像を用いて輝度と密度の表現を構築することにより、画像色化モジュールに基づいて色表現を再現できる。
次に、輝度、密度、色を表現することで、カラフルな暗黙のモデルを再現する。
提案手法の有効性を検証するため, 広範囲な実験を行った。
プロジェクトページ: https://liquidammonia.github.io/color-nerf。
関連論文リスト
- Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Improved Diffusion-based Image Colorization via Piggybacked Models [19.807766482434563]
既存の強力なT2I拡散モデルに基づく色付けモデルを提案する。
拡散誘導器は、潜伏拡散モデルの事前訓練された重みを組み込むように設計されている。
次に、輝度認識VQVAEは、所定のグレースケール画像に画素完全アライメントされた色付き結果を生成する。
論文 参考訳(メタデータ) (2023-04-21T16:23:24Z) - Behind the Scenes: Density Fields for Single View Reconstruction [63.40484647325238]
単一の画像から有意義な幾何学的シーン表現を推定することは、コンピュータビジョンの根本的な問題である。
本稿では,入力画像のフラストラム内のすべての位置を体積密度にマッピングする。
提案手法は,入力画像に隠された領域に対して有意な幾何を予測できることを示す。
論文 参考訳(メタデータ) (2023-01-18T17:24:01Z) - BigColor: Colorization using a Generative Color Prior for Natural Images [28.42665080958172]
複雑な構造を持つ多彩な画像に対して鮮やかなカラー化を提供する,新しいカラー化手法であるBigColorを提案する。
提案手法は,単一前方通過における多様な入力に対するロバストなカラー化を可能にし,任意の入力解像度をサポートし,マルチモーダルカラー化結果を提供する。
論文 参考訳(メタデータ) (2022-07-20T06:36:46Z) - Towards Photorealistic Colorization by Imagination [48.82757902812846]
本稿では,人間の想像力を模倣した画像の自動色付け手法を提案する。
我々の研究は、最先端の画像カラー化手法よりも、よりカラフルで多彩な結果をもたらす。
論文 参考訳(メタデータ) (2021-08-20T14:28:37Z) - Guided Colorization Using Mono-Color Image Pairs [6.729108277517129]
モノクロ画像は通常、より優れた信号対雑音比(SNR)とよりリッチなテクスチャを持つ。
モノクロ画像とカラー画像とをカラー化するモノクロ画像強調アルゴリズムを提案する。
実験結果から,本アルゴリズムはより高精細度で高精細度な色画像をモノカラー画像対から効率よく復元できることが示唆された。
論文 参考訳(メタデータ) (2021-08-17T07:00:28Z) - Semantic-driven Colorization [78.88814849391352]
最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
論文 参考訳(メタデータ) (2020-06-13T08:13:30Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。