論文の概要: LoGoColor: Local-Global 3D Colorization for 360° Scenes
- arxiv url: http://arxiv.org/abs/2512.09278v1
- Date: Wed, 10 Dec 2025 03:03:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.380038
- Title: LoGoColor: Local-Global 3D Colorization for 360° Scenes
- Title(参考訳): LoGoColor:360度撮影のためのローカル・グローバル3Dカラー化
- Authors: Yeonjin Chang, Juhwan Cho, Seunghyeon Seo, Wonsik Shin, Nojun Kwak,
- Abstract要約: シングルチャネル3D再構成は、ロボティクスや医用画像などの分野で広く利用されている。
最近の3次元カラー化研究は、2次元画像カラー化モデルを蒸留することによってこの問題に対処している。
カラーの多様性を維持するためのパイプラインであるLoGoColorを提案する。
- 参考スコア(独自算出の注目度): 29.177641673340137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-channel 3D reconstruction is widely used in fields such as robotics and medical imaging. While this line of work excels at reconstructing 3D geometry, the outputs are not colored 3D models, thus 3D colorization is required for visualization. Recent 3D colorization studies address this problem by distilling 2D image colorization models. However, these approaches suffer from an inherent inconsistency of 2D image models. This results in colors being averaged during training, leading to monotonous and oversimplified results, particularly in complex 360° scenes. In contrast, we aim to preserve color diversity by generating a new set of consistently colorized training views, thereby bypassing the averaging process. Nevertheless, eliminating the averaging process introduces a new challenge: ensuring strict multi-view consistency across these colorized views. To achieve this, we propose LoGoColor, a pipeline designed to preserve color diversity by eliminating this guidance-averaging process with a `Local-Global' approach: we partition the scene into subscenes and explicitly tackle both inter-subscene and intra-subscene consistency using a fine-tuned multi-view diffusion model. We demonstrate that our method achieves quantitatively and qualitatively more consistent and plausible 3D colorization on complex 360° scenes than existing methods, and validate its superior color diversity using a novel Color Diversity Index.
- Abstract(参考訳): シングルチャネル3D再構成は、ロボティクスや医用画像などの分野で広く利用されている。
この線は3次元形状の再構成に優れるが、出力は3次元モデルではないため、可視化には3次元色付けが必要である。
最近の3次元カラー化研究は、2次元画像カラー化モデルを蒸留することによってこの問題に対処している。
しかし、これらのアプローチは2次元画像モデル固有の矛盾に悩まされている。
この結果、トレーニング中に色が平均化され、特に複雑な360度のシーンにおいて単調で単純化された結果をもたらす。
対照的に、我々は、一貫したトレーニングビューを新たに生成し、平均化プロセスをバイパスすることで、色多様性を維持することを目指している。
それでも、平均化プロセスを削除することは、これらの色付けされたビューに対して厳密なマルチビュー一貫性を保証するという、新しい課題をもたらす。
そこで我々はLoGoColorを提案する。LoGoColorは「ローカル・グラバル」アプローチでこの誘導・蓄積プロセスを排除することで色多様性を保ち、シーンをサブシーンに分割し、微調整されたマルチビュー拡散モデルを用いてサブシーン間およびサブシーン間の一貫性を明示的に取り出すパイプラインである。
提案手法は,既存手法よりも複雑な360°領域において,定量的かつ定性的に定性的に再現可能な3次元カラー化を実現し,新しいカラー多様性指数を用いて,その優れた色多様性を検証した。
関連論文リスト
- Color3D: Controllable and Consistent 3D Colorization with Personalized Colorizer [58.94607850223466]
静的な3Dシーンと動的な3Dシーンの両方をモノクロ入力から色づけする、高度に適応可能なフレームワークであるColor3Dを提案する。
当社のアプローチは、クロスビューとクロスタイムの一貫性を確保しながら、カラー多様性とステアビリティを維持できます。
論文 参考訳(メタデータ) (2025-10-11T10:21:19Z) - Follow-Your-Color: Multi-Instance Sketch Colorization [44.72374445094054]
Follow-Your-Colorはマルチインスタンススケッチのカラー化のための拡散ベースのフレームワークである。
本モデルでは,手作業の調整を一切行わず,カラー化プロセスの自動化を重要視する。
論文 参考訳(メタデータ) (2025-03-21T08:53:14Z) - Coherent 3D Scene Diffusion From a Single RGB Image [68.31336308924477]
単一のRGB画像からのコヒーレントな3次元シーン再構成のための拡散に基づく新しい手法を提案する。
本手法は,シーン内のすべてのオブジェクトの3次元ポーズとジオメトリを同時に認識する。
一つのRGB画像3Dシーン再構成のタスクを条件付き拡散プロセスとしてフレーミングすることにより,本手法は最先端の手法を超越する。
論文 参考訳(メタデータ) (2024-12-13T17:26:45Z) - MVD-Fusion: Single-view 3D via Depth-consistent Multi-view Generation [54.27399121779011]
本稿では,多視点RGB-D画像の生成モデルを用いて,単視点3次元推論を行うMVD-Fusionを提案する。
提案手法は,蒸留に基づく3D推論や先行多視点生成手法など,最近の最先端技術と比較して,より正確な合成を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-04T17:59:57Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [90.57414218888536]
カラーフィールドは、標準画像(canonical image)とも呼ばれる、明示的な2次元の外観アグリゲーションとして学習する。
テクスチャクエリのために3Dポイントを2Dピクセルにマッピングする投影場を標準画像に補完する。
提案手法は,既存のNeRFベースの編集手法に比べて,編集1回あたり20倍高速であることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - UNeR3D: Versatile and Scalable 3D RGB Point Cloud Generation from 2D
Images in Unsupervised Reconstruction [2.7848140839111903]
UNeR3Dは、2Dビューのみから詳細な3D再構成を生成するための新しい標準を設定している。
私たちのモデルは、教師付きアプローチに関連するトレーニングコストを大幅に削減します。
UNeR3Dはシームレスな色遷移を保証し、視力を高める。
論文 参考訳(メタデータ) (2023-12-10T15:18:55Z) - ChromaDistill: Colorizing Monochrome Radiance Fields with Knowledge Distillation [23.968181738235266]
入力グレースケールのマルチビュー画像から新しいビューをカラー化する方法を提案する。
自然画像に基づいて訓練したこれらのネットワークからターゲット3D表現に色を伝達する蒸留方式を提案する。
提案手法は基礎となる3D表現に非依存であり,NeRF法や3DGS法に容易に一般化可能である。
論文 参考訳(メタデータ) (2023-09-14T12:30:48Z) - Cross-Modal 3D Shape Generation and Manipulation [62.50628361920725]
本稿では,2次元のモダリティと暗黙の3次元表現を共用した多モード生成モデルを提案する。
グレースケールラインスケッチとレンダリングカラー画像の2つの代表的な2次元モーダル性について,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-07-24T19:22:57Z) - SPSG: Self-Supervised Photometric Scene Generation from RGB-D Scans [34.397726189729994]
SPSGは、RGB-Dスキャン観測から高品質で色のついたシーンの3Dモデルを生成するための新しいアプローチである。
我々の自己監督的アプローチは、不完全なRGB-Dスキャンと、そのスキャンのより完全なバージョンとを関連付けて、幾何学と色を共同で塗布することを学ぶ。
論文 参考訳(メタデータ) (2020-06-25T18:58:23Z) - 3D Photography using Context-aware Layered Depth Inpainting [50.66235795163143]
本稿では、1枚のRGB-D入力画像を3D写真に変換する方法を提案する。
学習に基づく着色モデルでは,新しい局所的な色と深度を隠蔽領域に合成する。
結果の3D写真は、モーションパララックスで効率よくレンダリングできる。
論文 参考訳(メタデータ) (2020-04-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。