論文の概要: AONeuS: A Neural Rendering Framework for Acoustic-Optical Sensor Fusion
- arxiv url: http://arxiv.org/abs/2402.03309v2
- Date: Tue, 21 May 2024 17:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 18:41:35.644608
- Title: AONeuS: A Neural Rendering Framework for Acoustic-Optical Sensor Fusion
- Title(参考訳): AONeuS:音響光学式センサフュージョンのためのニューラルネットワークフレームワーク
- Authors: Mohamad Qadri, Kevin Zhang, Akshay Hinduja, Michael Kaess, Adithya Pediredla, Christopher A. Metzler,
- Abstract要約: 水中の知覚と3次元表面の再構築は、建設、セキュリティ、海洋考古学、環境モニタリングにおける幅広い応用において難しい問題である。
本研究は,物理に基づく多モード音響-光学的ニューラルサーフェス再構成フレームワークの開発である。
これらの相補的なモダリティを融合させることで,本フレームワークは,高度に制限されたベースライン上での計測から高精度な高解像度3次元表面を再構築することができる。
- 参考スコア(独自算出の注目度): 25.32113731681485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater perception and 3D surface reconstruction are challenging problems with broad applications in construction, security, marine archaeology, and environmental monitoring. Treacherous operating conditions, fragile surroundings, and limited navigation control often dictate that submersibles restrict their range of motion and, thus, the baseline over which they can capture measurements. In the context of 3D scene reconstruction, it is well-known that smaller baselines make reconstruction more challenging. Our work develops a physics-based multimodal acoustic-optical neural surface reconstruction framework (AONeuS) capable of effectively integrating high-resolution RGB measurements with low-resolution depth-resolved imaging sonar measurements. By fusing these complementary modalities, our framework can reconstruct accurate high-resolution 3D surfaces from measurements captured over heavily-restricted baselines. Through extensive simulations and in-lab experiments, we demonstrate that AONeuS dramatically outperforms recent RGB-only and sonar-only inverse-differentiable-rendering--based surface reconstruction methods. A website visualizing the results of our paper is located at this address: https://aoneus.github.io/
- Abstract(参考訳): 水中の知覚と3次元表面の再構築は、建設、セキュリティ、海洋考古学、環境モニタリングにおける幅広い応用において難しい問題である。
危険な操作条件、脆弱な環境、限られた航法制御は、潜水艇がその移動範囲を制限し、測定を捉えるための基準線を規定することが多い。
3次元シーン再構築の文脈では、より小さなベースラインが再構築をより困難にすることが知られている。
本研究は,高分解能RGB計測と低分解能深度画像ソナー計測を効果的に統合できる物理ベースの多モード音響-光学ニューラルサーフェス再構成フレームワーク(AONeuS)を開発した。
これらの相補的なモダリティを融合させることで,本フレームワークは,高度に制限されたベースライン上での計測から高精度な高解像度3次元表面を再構築することができる。
広範囲なシミュレーションと実験により, AONeuS は最近の RGB とソナーのみの逆微分可能な面再構成法を劇的に上回っていることを示した。
論文の結果を視覚化するWebサイトは、このアドレスにある: https://aoneus.github.io/
関連論文リスト
- GSurf: 3D Reconstruction via Signed Distance Fields with Direct Gaussian Supervision [0.0]
マルチビュー画像からの表面再構成は3次元視覚における中核的な課題である。
近年, ニューラル・レージアンス・フィールド(NeRF)内のサイン付き距離場(SDF)を探索し, 高忠実な表面再構成を実現している。
本稿では,ガウス原始体から直接符号付き距離場を学習する新しいエンドツーエンド手法であるGSurfを紹介する。
GSurfは、VolSDFやNeuSといったニューラルな暗黙的表面法に匹敵する3D再構成品質を提供しながら、高速なトレーニングとレンダリングの速度を達成する。
論文 参考訳(メタデータ) (2024-11-24T05:55:19Z) - Simultaneous Map and Object Reconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、最近の新しいビュー合成法から着想を得て、大域的な最適化として再構築問題を提起する。
連続動作の慎重なモデリングにより, 回転するLiDARセンサの回転シャッター効果を補うことができる。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - NeSLAM: Neural Implicit Mapping and Self-Supervised Feature Tracking With Depth Completion and Denoising [23.876281686625134]
我々は,高精度で密度の高い深度推定,ロバストなカメラトラッキング,新しいビューの現実的な合成を実現するフレームワークNeSLAMを提案する。
各種屋内データセットを用いた実験は、再構築、品質追跡、新しいビュー合成におけるシステムの有効性と精度を示す。
論文 参考訳(メタデータ) (2024-03-29T07:59:37Z) - UniSDF: Unifying Neural Representations for High-Fidelity 3D
Reconstruction of Complex Scenes with Reflections [92.38975002642455]
大規模な複雑なシーンをリフレクションで再構成できる汎用3次元再構成手法UniSDFを提案する。
提案手法は,複雑な大規模シーンを細部と反射面で頑健に再構築することができる。
論文 参考訳(メタデータ) (2023-12-20T18:59:42Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - Incremental Dense Reconstruction from Monocular Video with Guided Sparse
Feature Volume Fusion [23.984073189849024]
本報告では, TSDF値のリアルタイムな特徴量に基づく高密度再構成手法を提案し, 新たな深部特徴量からTSDF値を推定する。
不確実性を認識したマルチビューステレオネットワークを利用して、スパース特徴量における物理表面の初期ボクセル位置を推定する。
提案手法は,多くの場合において,より細部でより完全な再構築が可能であることを示す。
論文 参考訳(メタデータ) (2023-05-24T09:06:01Z) - Looking Through the Glass: Neural Surface Reconstruction Against High
Specular Reflections [72.45512144682554]
暗黙的ニューラルレンダリングに基づく新しい表面再構成フレームワークNeuS-HSRを提案する。
NeuS-HSRでは、物体表面は暗黙の符号付き距離関数としてパラメータ化される。
我々は、NeuS-HSRが、HSRに対する高精度で堅牢なターゲット表面再構成において、最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-18T02:34:58Z) - MonoSDF: Exploring Monocular Geometric Cues for Neural Implicit Surface
Reconstruction [72.05649682685197]
最先端のニューラル暗黙法は、多くの入力ビューから単純なシーンの高品質な再構築を可能にする。
これは主に、十分な制約を提供していないRGB再構築損失の固有の曖昧さによって引き起こされる。
近年の単分子形状予測の分野での進歩に触発され, ニューラルな暗黙的表面再構成の改善にこれらの方法が役立つかを探究する。
論文 参考訳(メタデータ) (2022-06-01T17:58:15Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - HRBF-Fusion: Accurate 3D reconstruction from RGB-D data using on-the-fly
implicits [11.83399015126983]
高忠実度3Dオブジェクトやシーンの再構成は、基本的な研究課題である。
RGB-D融合の最近の進歩は、消費者レベルのRGB-Dカメラから3Dモデルを製造する可能性を示している。
既存のアプローチは、カメラ追跡における誤差の蓄積と再構成における歪みに悩まされている。
論文 参考訳(メタデータ) (2022-02-03T20:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。