論文の概要: CoStruction: Conjoint radiance field optimization for urban scene reconStruction with limited image overlap
- arxiv url: http://arxiv.org/abs/2501.03932v1
- Date: Tue, 07 Jan 2025 16:48:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:49:20.955540
- Title: CoStruction: Conjoint radiance field optimization for urban scene reconStruction with limited image overlap
- Title(参考訳): CoStruction: Conjoint Radiance Field Optimization for urban scene reconStruction with limited image overlap
- Authors: Fusang Wang, Hala Djeghim, Nathan Piasco, Moussab Bennehar, Luis Roldão, Dzmitry Tsishkou,
- Abstract要約: CoStructionは、カメラのオーバーラップが制限された大きな駆動シーケンスに適した、新しいハイブリッドな暗黙的表面再構成手法である。
本手法は, 複雑な都市シナリオにおける微細構造とともに, 大面積の正確な再構成を実現するためのガイド付きサンプリングに加えて, 両方の放射場を共同で最適化する。
- 参考スコア(独自算出の注目度): 2.946747492685909
- License:
- Abstract: Reconstructing the surrounding surface geometry from recorded driving sequences poses a significant challenge due to the limited image overlap and complex topology of urban environments. SoTA neural implicit surface reconstruction methods often struggle in such setting, either failing due to small vision overlap or exhibiting suboptimal performance in accurately reconstructing both the surface and fine structures. To address these limitations, we introduce CoStruction, a novel hybrid implicit surface reconstruction method tailored for large driving sequences with limited camera overlap. CoStruction leverages cross-representation uncertainty estimation to filter out ambiguous geometry caused by limited observations. Our method performs joint optimization of both radiance fields in addition to guided sampling achieving accurate reconstruction of large areas along with fine structures in complex urban scenarios. Extensive evaluation on major driving datasets demonstrates the superiority of our approach in reconstructing large driving sequences with limited image overlap, outperforming concurrent SoTA methods.
- Abstract(参考訳): 記録された運転シーケンスから周囲の表面形状を再構成することは、都市環境における画像の重複と複雑なトポロジーが限定されているため、大きな課題となる。
SoTAの暗黙的表面再構成法は、視力の重なりが小さかったり、表面構造と微細構造の両方を正確に再構築する際の最適以下の性能を示すために、このような状況でしばしば苦労する。
これらの制約に対処するために,カメラのオーバーラップが制限された大型駆動列に適した,新しいハイブリッド型暗黙表面再構成法であるCoStructionを導入する。
CoStructionは、交差表現の不確実性推定を利用して、限られた観測によって引き起こされるあいまいな幾何学をフィルタリングする。
本手法は, 複雑な都市シナリオにおける微細構造とともに, 大面積の正確な再構成を実現するためのガイド付きサンプリングに加えて, 両方の放射場を共同で最適化する。
大規模運転データセットの大規模な評価は、画像重なりが限定された大規模運転シーケンスの再構築において、我々のアプローチの優位性を示し、同時SoTA法より優れていた。
関連論文リスト
- StreetSurfGS: Scalable Urban Street Surface Reconstruction with Planar-based Gaussian Splatting [85.67616000086232]
StreetSurfGSは、スケーラブルな街路景観の再構築に適したガウススプラッティングを利用するための最初の方法である。
StreetSurfGSは、平面ベースのオクツリー表現とセグメンテーショントレーニングを使用して、メモリコストを削減し、ユニークなカメラ特性に対応し、スケーラビリティを確保する。
スパースビューとマルチスケールの課題に対処するために、隣接する情報と長期情報を活用する2段階マッチング戦略を用いる。
論文 参考訳(メタデータ) (2024-10-06T04:21:59Z) - SMORE: Simulataneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - GeoGaussian: Geometry-aware Gaussian Splatting for Scene Rendering [83.19049705653072]
ガウススプレイティング最適化の過程で、その構造が意図的に保存されていない場合、シーンの幾何学は徐々に悪化する。
我々はこの問題を緩和するためにGeoGaussianと呼ばれる新しいアプローチを提案する。
提案するパイプラインは、新しいビュー合成と幾何再構成において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-03-17T20:06:41Z) - NeuSurf: On-Surface Priors for Neural Surface Reconstruction from Sparse
Input Views [41.03837477483364]
本研究では,表面の高度に忠実な再構成を実現するために,地上の事前情報を活用する新しいスパース・ビュー・リコンストラクション・フレームワークを提案する。
具体的には,大域的幾何アライメントと局所的幾何洗練に関するいくつかの制約を設計し,粗い形状と細部を協調的に最適化する。
DTUとBlendedMVSデータセットによる2つの一般的なスパース設定の実験結果は、最先端の手法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2023-12-21T16:04:45Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - Critical Regularizations for Neural Surface Reconstruction in the Wild [26.460011241432092]
本稿では,高品質でロバストな再構成結果を得るのに,適切な点クラウド監視と幾何正規化が十分であることを示すRegSDFを提案する。
RegSDFは、複雑なトポロジと非構造化カメラ軌道を持つオープンシーンであっても、細部で表面を再構築することができる。
論文 参考訳(メタデータ) (2022-06-07T08:11:22Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。