論文の概要: BRUM: Robust 3D Vehicle Reconstruction from 360 Sparse Images
- arxiv url: http://arxiv.org/abs/2507.12095v1
- Date: Wed, 16 Jul 2025 10:04:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.346849
- Title: BRUM: Robust 3D Vehicle Reconstruction from 360 Sparse Images
- Title(参考訳): BRUM:360度スパーク画像からロバストな3D車両を再現
- Authors: Davide Di Nucci, Matteo Tomei, Guido Borghi, Luca Ciuffreda, Roberto Vezzani, Rita Cucchiara,
- Abstract要約: 本稿では,スパースビュー入力から車両を再構築する際の課題について述べる。
我々は、新しいビューを合成するために、深度マップとロバストなポーズ推定アーキテクチャを活用する。
本稿では,合成と現実の両方の公共交通機関を特徴とする新しいデータセットを提案する。
- 参考スコア(独自算出の注目度): 21.811586185200706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate 3D reconstruction of vehicles is vital for applications such as vehicle inspection, predictive maintenance, and urban planning. Existing methods like Neural Radiance Fields and Gaussian Splatting have shown impressive results but remain limited by their reliance on dense input views, which hinders real-world applicability. This paper addresses the challenge of reconstructing vehicles from sparse-view inputs, leveraging depth maps and a robust pose estimation architecture to synthesize novel views and augment training data. Specifically, we enhance Gaussian Splatting by integrating a selective photometric loss, applied only to high-confidence pixels, and replacing standard Structure-from-Motion pipelines with the DUSt3R architecture to improve camera pose estimation. Furthermore, we present a novel dataset featuring both synthetic and real-world public transportation vehicles, enabling extensive evaluation of our approach. Experimental results demonstrate state-of-the-art performance across multiple benchmarks, showcasing the method's ability to achieve high-quality reconstructions even under constrained input conditions.
- Abstract(参考訳): 車両の正確な3D再構築は、車両検査、予測保守、都市計画などの応用に不可欠である。
Neural Radiance Fields や Gaussian Splatting のような既存の手法は印象的な結果を示しているが、高密度な入力ビューに依存しているため、現実の応用を妨げている。
本稿では, 車両を疎視入力から再構築し, 深度マップと頑健なポーズ推定アーキテクチャを活用して, 新規なビューを合成し, トレーニングデータを増強するという課題に対処する。
具体的には、高信頼画素のみに適用し、標準のStructure-from-MotionパイプラインをDUSt3Rアーキテクチャに置き換えて、カメラのポーズ推定を改善することにより、ガウス散乱を強化する。
さらに,本研究のアプローチを広範に評価できる,合成と現実の両方の公共交通機関を特徴とする新しいデータセットを提案する。
実験により,複数のベンチマークにおける最先端性能を実証し,制約された入力条件下であっても高品質な再構成を実現する手法の能力を示した。
関連論文リスト
- GTR: Gaussian Splatting Tracking and Reconstruction of Unknown Objects Based on Appearance and Geometric Complexity [49.31257173003408]
モノクローナルRGBDビデオからの6-DoFオブジェクト追跡と高品質な3D再構成のための新しい手法を提案する。
提案手法は, 高忠実度オブジェクトメッシュを復元する強力な能力を示し, オープンワールド環境における単一センサ3D再構成のための新しい標準を策定する。
論文 参考訳(メタデータ) (2025-05-17T08:46:29Z) - A Survey of 3D Reconstruction with Event Cameras [16.103940503726022]
イベントカメラはスパースで時間的に密度の高いデータストリームを生成し、堅牢で正確な3D再構成を可能にする。
これらの能力は、自律運転、ロボティクス、空中ナビゲーション、没入型バーチャルリアリティーなど、さまざまな分野にまたがるトランスフォーメーションアプリケーションに対して、大きな保証を提供する。
本調査は, イベント駆動型3D再構築における最先端技術に向けた, 明確かつモチベーションの高いロードマップを提供する。
論文 参考訳(メタデータ) (2025-05-13T11:04:04Z) - A self-supervised cyclic neural-analytic approach for novel view synthesis and 3D reconstruction [11.558827428811385]
本稿では、高品質なニューラルネットワークレンダリング出力と分析手法からの正確な幾何学的洞察を組み合わせた自己教師付き循環型ニューラルネットワークパイプラインを提案する。
我々のソリューションは、新しいビュー合成のためのRGBとメッシュ再構成を改善し、特にトレーニングデータセットとは全く異なるアンサンプされた領域や領域で改善する。
以上の結果から,新規な3次元画像のレンダリングや3次元画像の再構成が大幅に向上していることが示唆された。
論文 参考訳(メタデータ) (2025-03-05T14:28:01Z) - FlexDrive: Toward Trajectory Flexibility in Driving Scene Reconstruction and Rendering [79.39246982782717]
経路外ビューの再構築の監督として,コンパクトで高品質な画像を作成するために,逆ビューワーピング技術を導入する。
提案手法は,広く使用されているOpenデータセット上で,経路内および経路外再構成およびレンダリング性能を向上する。
論文 参考訳(メタデータ) (2025-02-28T14:32:04Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Drone-assisted Road Gaussian Splatting with Cross-view Uncertainty [10.37108303188536]
3D Gaussian Splatting (3D-GS)は、ニューラルレンダリングにおいて画期的な進歩を遂げた。
大規模な道路シーンレンダリングの一般的な忠実度は、入力画像によって制限されることが多い。
カービューのアンサンブルに基づくレンダリングの不確実性と空中画像とのマッチングにより、3D-GSにクロスビューの不確実性を導入する。
論文 参考訳(メタデータ) (2024-08-27T17:59:55Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。