論文の概要: LCAMV: High-Accuracy 3D Reconstruction of Color-Varying Objects Using LCA Correction and Minimum-Variance Fusion in Structured Light
- arxiv url: http://arxiv.org/abs/2603.10456v1
- Date: Wed, 11 Mar 2026 06:16:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.806018
- Title: LCAMV: High-Accuracy 3D Reconstruction of Color-Varying Objects Using LCA Correction and Minimum-Variance Fusion in Structured Light
- Title(参考訳): LCAMV:LCA補正と最小分散核融合によるカラー変色物体の高精度3次元再構成
- Authors: Wonbeen Oh, Jae-Sang Hyun,
- Abstract要約: 横色収差補正と最小分散融合(LCAMV)を導入する。
LCAMVは、追加のハードウェアや取得制約なしで、単一のプロジェクタとカメラのペアで動作する。
平面および非平面色表面の実験では、LCAMVはグレースケール変換や従来のチャネル重み付けよりも優れていた。
- 参考スコア(独自算出の注目度): 0.5371337604556311
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate 3D reconstruction of colored objects with structured light (SL) is hindered by lateral chromatic aberration (LCA) in optical components and uneven noise characteristics across RGB channels. This paper introduces lateral chromatic aberration correction and minimum-variance fusion (LCAMV), a robust 3D reconstruction method that operates with a single projector-camera pair without additional hardware or acquisition constraints. LCAMV analytically models and pixel-wise compensates LCA in both the projector and camera, then adaptively fuses multi-channel phase data using a Poisson-Gaussian noise model and minimum-variance estimation. Unlike existing methods that require extra hardware or multiple exposures, LCAMV enables fast acquisition. Experiments on planar and non-planar colored surfaces show that LCAMV outperforms grayscale conversion and conventional channel-weighting, reducing depth error by up to 43.6\%. These results establish LCAMV as an effective solution for high-precision 3D reconstruction of nonuniformly colored objects.
- Abstract(参考訳): 光学部品における横色収差(LCA)とRGBチャネル間の不均質なノイズ特性により、構造化光(SL)による色の物体の正確な3次元再構成が妨げられる。
本稿では,1つのプロジェクタカメラペアでハードウェアや取得制約を伴わずに動作可能な3D再構成法であるLCAMVと横色収差補正を提案する。
LCAMVはプロジェクターとカメラの両方でLCAを解析モデルおよび画素単位で補償し、ポアソン・ガウス雑音モデルと最小分散推定を用いて多チャンネル位相データを適応的に融合する。
余分なハードウェアや複数の露出を必要とする既存の方法とは異なり、LCAMVは高速な取得を可能にする。
平面面および非平面面の実験では、LCAMVはグレースケール変換や従来のチャネル重み付けよりも優れており、深さ誤差を最大43.6\%低減している。
これらの結果はLCAMVが不均一な色の物体の高精度3次元再構成に有効であることを示す。
関連論文リスト
- Unifying Color and Lightness Correction with View-Adaptive Curve Adjustment for Robust 3D Novel View Synthesis [73.27997579020233]
多様な照明条件下での堅牢なNVSのための3DGSベースのフレームワークであるLuminance-GS++を提案する。
本手法は,グローバルな視野適応光度調整と局所画素ワイド残差補正を組み合わせ,正確な色補正を行う。
論文 参考訳(メタデータ) (2026-02-20T16:20:50Z) - DCA-LUT: Deep Chromatic Alignment with 5D LUT for Purple Fringing Removal [18.657059101949887]
DCA-LUTは紫のフリング除去のための最初のディープラーニングフレームワークである。
この問題の物理的ルーツにインスパイアされた我々は、新しいクロマティック・アウェア・コーディネート・トランスフォーメーション(CA-CT)モジュールを導入する。
学習した5Dルックアップテーブル(5D LUT)により最終色補正を行う。
論文 参考訳(メタデータ) (2025-11-15T07:11:49Z) - Camera Movement Estimation and Path Correction using the Combination of Modified A-SIFT and Stereo System for 3D Modelling [1.6574413179773757]
効率的なカメラパス生成は、正確で効率的な3Dモデルを作成する際の問題を解決するのに役立つ。
ASIFT (Affine Scale-Invariant Feature Transform) の修正版が提案され,計算オーバーヘッドの低減を図った。
2カメラベースの回転補正モデルを導入し,小さな回転誤差を軽減した。
3次元空間におけるカメラの動きを決定するために,ステレオカメラによる翻訳推定と補正モデルを実装した。
論文 参考訳(メタデータ) (2025-03-22T06:37:54Z) - DPCS: Path Tracing-Based Differentiable Projector-Camera Systems [49.69815958689441]
ProCamのプロジェクタカメラシステム(ProCams)シミュレーションは、プロカメラの物理的プロジェクタ・アンド・キャプチャ・プロセスと関連するシーンパラメータをモデル化することを目的としている。
最近の進歩は、プロジェクト・アンド・キャプチャプロセスを学ぶためにエンドツーエンドのニューラルネットワークを使用している。
本稿では,新しい経路追従型微分可能プロジェクタカメラシステム(DPCS)を導入し,微分可能なProCamsシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2025-03-15T15:31:18Z) - D3DR: Lighting-Aware Object Insertion in Gaussian Splatting [48.80431740983095]
D3DRと呼ばれる3DGS並列化オブジェクトを3DGSシーンに挿入する手法を提案する。
我々は、現実世界のデータに基づいて訓練された拡散モデルの進歩を活用し、正しいシーンライティングを暗黙的に理解する。
提案手法を既存手法と比較することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-03-09T19:48:00Z) - Discovering an Image-Adaptive Coordinate System for Photography Processing [51.164345878060956]
曲線演算を行う前にRGB色空間における画像適応座標系を学習するための新しいアルゴリズム IAC を提案する。
このエンドツーエンドのトレーニング可能なアプローチにより、共同で学習した画像適応座標系と曲線を用いて、画像の効率よく調整できる。
論文 参考訳(メタデータ) (2025-01-11T06:20:07Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Visual Odometry with an Event Camera Using Continuous Ray Warping and
Volumetric Contrast Maximization [31.627936023222052]
イベントカメラによるトラッキングとマッピングのための新しいソリューションを提案する。
カメラの動きは回転と変換の両方を含み、変位は任意に構造化された環境で起こる。
コントラストを3Dで実現することで,この問題に対する新たな解決法を提案する。
車両搭載イベントカメラによるAGV運動推定と3次元再構成への応用により,本手法の実用的妥当性が裏付けられる。
論文 参考訳(メタデータ) (2021-07-07T04:32:57Z) - DeProCams: Simultaneous Relighting, Compensation and Shape
Reconstruction for Projector-Camera Systems [91.45207885902786]
本稿では,ProCamsの測光および幾何学的マッピングを学習するために,DeProCamsという新しいエンドツーエンドトレーニングモデルを提案する。
DeProCamsは、プロジェクターカメライメージマッピングを、シェーディング属性推定、粗い直接光推定、フォトリアリスティックなニューラルレンダリングの3つのサブプロセスに明示的に分解する。
私たちの実験では、DeProCamsは、期待できる品質と完全に差別化可能な従来の芸術よりも明確な優位性を示している。
論文 参考訳(メタデータ) (2020-03-06T05:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。