論文の概要: 3D Scene-Camera Representation with Joint Camera Photometric Optimization
- arxiv url: http://arxiv.org/abs/2506.20979v1
- Date: Thu, 26 Jun 2025 03:53:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.960199
- Title: 3D Scene-Camera Representation with Joint Camera Photometric Optimization
- Title(参考訳): 共同カメラ光度最適化による3次元シーンカメラ表現
- Authors: Weichen Dai, Kangcheng Ma, Jiaxin Wang, Kecen Pan, Yuhang Ming, Hua Zhang, Wanzeng Kong,
- Abstract要約: 多視点画像からのシーンの表現は、コンピュータビジョンにおいて広範囲の応用において重要な課題である。
カメラ画像におけるインヒーレントな測光歪みは、画質を著しく低下させる。
共同カメラ光度最適化を用いた新しい3次元シーンカメラ表現を提案する。
- 参考スコア(独自算出の注目度): 14.582929437272604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representing scenes from multi-view images is a crucial task in computer vision with extensive applications. However, inherent photometric distortions in the camera imaging can significantly degrade image quality. Without accounting for these distortions, the 3D scene representation may inadvertently incorporate erroneous information unrelated to the scene, diminishing the quality of the representation. In this paper, we propose a novel 3D scene-camera representation with joint camera photometric optimization. By introducing internal and external photometric model, we propose a full photometric model and corresponding camera representation. Based on simultaneously optimizing the parameters of the camera representation, the proposed method effectively separates scene-unrelated information from the 3D scene representation. Additionally, during the optimization of the photometric parameters, we introduce a depth regularization to prevent the 3D scene representation from fitting scene-unrelated information. By incorporating the camera model as part of the mapping process, the proposed method constructs a complete map that includes both the scene radiance field and the camera photometric model. Experimental results demonstrate that the proposed method can achieve high-quality 3D scene representations, even under conditions of imaging degradation, such as vignetting and dirt.
- Abstract(参考訳): 多視点画像からのシーンの表現は、コンピュータビジョンにおいて広範囲の応用において重要な課題である。
しかし、カメラ画像の固有の光度歪みは、画質を著しく劣化させる可能性がある。
これらの歪みを考慮せずに、3Dシーン表現は、シーンとは無関係な誤った情報を不注意に組み込んで、表現の質を低下させる。
本稿では,ジョイントカメラの光度最適化を用いた新しい3次元シーンカメラ表現を提案する。
内部および外部の測光モデルを導入することにより、フル測光モデルと対応するカメラ表現を提案する。
カメラ表現のパラメータを同時に最適化し,シーン非関連情報を3次元シーン表現から効果的に分離する。
さらに,光度パラメータの最適化において,3次元シーン表現がシーン非関連情報に収まらないように,奥行き正規化を導入する。
マッピングプロセスの一部としてカメラモデルを組み込むことにより,シーンの輝度場とカメラ測光モデルの両方を含む完全なマップを構築する。
実験結果から,グルーネティングや汚れなどの画像劣化条件下であっても,高品質な3次元シーン表現を実現することができることがわかった。
関連論文リスト
- CRAYM: Neural Field Optimization via Camera RAY Matching [48.25100687172752]
マルチビュー画像からカメラポーズとニューラルフィールドのジョイント最適化にカメラレイマッチング(CRAYM)を導入する。
入力画像のキーポイントを通過するカメラ光に焦点をあてて、各光線最適化と一致した光線コヒーレンスを定式化する。
論文 参考訳(メタデータ) (2024-12-02T15:39:09Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - 3D modelling of survey scene from images enhanced with a multi-exposure
fusion [1.7816843507516948]
本稿では,画像の可視性を向上し,最終的に3次元シーンモデルの誤差を低減する手法を提案する。
このアイデアは、画像のデハージングにインスパイアされている。それぞれのオリジナル画像は、まず複数の露光画像に変換される。
拡張画像は、サブミリ平均誤差で3Dシーンモデルを再構成することができる。
論文 参考訳(メタデータ) (2021-11-10T06:02:44Z) - Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering [27.41344744849205]
従来のハンドヘルドカメラを用いた多視点写真からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
また,本手法は,新しい視点の視覚的合成と定量化において,最先端の代替手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-25T14:09:10Z) - Differentiable Rendering with Perturbed Optimizers [85.66675707599782]
2Dイメージプロジェクションから3Dシーンを推論することは、コンピュータビジョンにおける中核的な問題の一つだ。
我々の研究は、よく知られた微分可能な定式化とランダムなスムーズなレンダリングの関連性を強調している。
提案手法を3次元シーン再構成に適用し,その利点を6次元ポーズ推定と3次元メッシュ再構成の課題に適用した。
論文 参考訳(メタデータ) (2021-10-18T08:56:23Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Visual Odometry with an Event Camera Using Continuous Ray Warping and
Volumetric Contrast Maximization [31.627936023222052]
イベントカメラによるトラッキングとマッピングのための新しいソリューションを提案する。
カメラの動きは回転と変換の両方を含み、変位は任意に構造化された環境で起こる。
コントラストを3Dで実現することで,この問題に対する新たな解決法を提案する。
車両搭載イベントカメラによるAGV運動推定と3次元再構成への応用により,本手法の実用的妥当性が裏付けられる。
論文 参考訳(メタデータ) (2021-07-07T04:32:57Z) - LUCES: A Dataset for Near-Field Point Light Source Photometric Stereo [30.31403197697561]
LUCESは, 様々な素材の14個のオブジェクトからなる, 近距離Ld点光のための最初の実世界のデータセットである。
52個のLEDを計る装置は、カメラから10から30cm離れた位置にある各物体に点灯するように設計されている。
提案するデータセットにおける最新の近接場測光ステレオアルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-04-27T12:30:42Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。