論文の概要: Color3D: Controllable and Consistent 3D Colorization with Personalized Colorizer
- arxiv url: http://arxiv.org/abs/2510.10152v1
- Date: Sat, 11 Oct 2025 10:21:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.813267
- Title: Color3D: Controllable and Consistent 3D Colorization with Personalized Colorizer
- Title(参考訳): Color3D:パーソナライズドカラー化による制御可能で一貫性のある3Dカラー化
- Authors: Yecong Wan, Mingwen Shao, Renlong Wu, Wangmeng Zuo,
- Abstract要約: 静的な3Dシーンと動的な3Dシーンの両方をモノクロ入力から色づけする、高度に適応可能なフレームワークであるColor3Dを提案する。
当社のアプローチは、クロスビューとクロスタイムの一貫性を確保しながら、カラー多様性とステアビリティを維持できます。
- 参考スコア(独自算出の注目度): 58.94607850223466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we present Color3D, a highly adaptable framework for colorizing both static and dynamic 3D scenes from monochromatic inputs, delivering visually diverse and chromatically vibrant reconstructions with flexible user-guided control. In contrast to existing methods that focus solely on static scenarios and enforce multi-view consistency by averaging color variations which inevitably sacrifice both chromatic richness and controllability, our approach is able to preserve color diversity and steerability while ensuring cross-view and cross-time consistency. In particular, the core insight of our method is to colorize only a single key view and then fine-tune a personalized colorizer to propagate its color to novel views and time steps. Through personalization, the colorizer learns a scene-specific deterministic color mapping underlying the reference view, enabling it to consistently project corresponding colors to the content in novel views and video frames via its inherent inductive bias. Once trained, the personalized colorizer can be applied to infer consistent chrominance for all other images, enabling direct reconstruction of colorful 3D scenes with a dedicated Lab color space Gaussian splatting representation. The proposed framework ingeniously recasts complicated 3D colorization as a more tractable single image paradigm, allowing seamless integration of arbitrary image colorization models with enhanced flexibility and controllability. Extensive experiments across diverse static and dynamic 3D colorization benchmarks substantiate that our method can deliver more consistent and chromatically rich renderings with precise user control. Project Page https://yecongwan.github.io/Color3D/.
- Abstract(参考訳): 本研究では,モノクロインプットから静的な3Dシーンと動的な3Dシーンをカラー化するための高度に適応可能なフレームワークであるColor3Dを提案する。
静的なシナリオのみに焦点を絞った既存手法とは対照的に,色豊かさと可制御性の両方を必然的に犠牲にする色変化を平均化し,多視点整合性を実現する手法では,クロスビューとクロスタイム整合性を確保しつつ,色多様性とステアビリティを維持できる。
特に,本手法の中核となる洞察は,単一のキービューのみをカラー化し,パーソナライズされたカラー化を微調整することで,その色を新しいビューやタイムステップに伝播させることである。
カラーライザは、パーソナライズにより、参照ビューの下にあるシーン固有の決定的カラーマッピングを学習し、その固有の帰納的バイアスを通じて、新しいビューやビデオフレームのコンテンツに対応する色を一貫して投影する。
トレーニングが完了すると、パーソナライズされたカラー化装置は、他のすべての画像に対して一貫した色度を推測するために適用でき、色空間のガウシアンスプレイティング表現を専用のラボで行うことで、カラフルな3Dシーンを直接再構成することができる。
提案フレームワークは、複雑な3Dカラー化を、より難易度の高い単一画像パラダイムとして再キャストし、柔軟性と可制御性を向上した任意の画像カラー化モデルのシームレスな統合を可能にする。
様々な静的および動的3Dカラー化ベンチマークの広範な実験により、我々の手法はより一貫性があり、正確なユーザ制御による彩色的にリッチなレンダリングを実現することができることが実証された。
Project Page https://yecongwan.github.io/Color3D/
関連論文リスト
- Follow-Your-Color: Multi-Instance Sketch Colorization [44.72374445094054]
Follow-Your-Colorはマルチインスタンススケッチのカラー化のための拡散ベースのフレームワークである。
本モデルでは,手作業の調整を一切行わず,カラー化プロセスの自動化を重要視する。
論文 参考訳(メタデータ) (2025-03-21T08:53:14Z) - Leveraging Semantic Attribute Binding for Free-Lunch Color Control in Diffusion Models [53.73253164099701]
拡散モデルにおいて、微調整なしで正確なRGBレベルの色制御を実現する、トレーニング不要なアプローチであるColorWaveを導入する。
我々は、カラーウェーブが、構造化された、色一貫性の拡散に基づく画像合成のための新しいパラダイムを確立することを実証した。
論文 参考訳(メタデータ) (2025-03-12T21:49:52Z) - DreamColour: Controllable Video Colour Editing without Training [80.90808879991182]
直感的なインタフェースにより、正確な映像色編集を可能にする訓練不要のフレームワークを提案する。
色編集の空間的側面と時間的側面を分離することにより、ユーザの自然なワークフローをより良く整合させることができる。
当社のアプローチは、トレーニングや特別なハードウェアの必要性を排除しつつ、最先端の手法に適合または超越しています。
論文 参考訳(メタデータ) (2024-12-06T16:57:54Z) - Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - Transforming Color: A Novel Image Colorization Method [8.041659727964305]
本稿では,色変換器とGANを用いた画像カラー化手法を提案する。
提案手法は,グローバルな情報を取得するためのトランスフォーマーアーキテクチャと,視覚的品質を改善するためのGANフレームワークを統合する。
実験の結果,提案するネットワークは,他の最先端のカラー化技術よりも優れていた。
論文 参考訳(メタデータ) (2024-10-07T07:23:42Z) - Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - ChromaDistill: Colorizing Monochrome Radiance Fields with Knowledge Distillation [23.968181738235266]
入力グレースケールのマルチビュー画像から新しいビューをカラー化する方法を提案する。
自然画像に基づいて訓練したこれらのネットワークからターゲット3D表現に色を伝達する蒸留方式を提案する。
提案手法は基礎となる3D表現に非依存であり,NeRF法や3DGS法に容易に一般化可能である。
論文 参考訳(メタデータ) (2023-09-14T12:30:48Z) - Video Colorization with Pre-trained Text-to-Image Diffusion Models [19.807766482434563]
ビデオカラー化のための事前訓練されたテキストから画像への潜時拡散モデルの適応であるColorDiffuserを提案する。
本稿では,時間的コヒーレンスを高め,フレーム間の色付けの鮮明さを維持するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T17:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。