論文の概要: AONeuS: A Neural Rendering Framework for Acoustic-Optical Sensor Fusion
- arxiv url: http://arxiv.org/abs/2402.03309v1
- Date: Mon, 5 Feb 2024 18:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 14:08:55.324259
- Title: AONeuS: A Neural Rendering Framework for Acoustic-Optical Sensor Fusion
- Title(参考訳): AONeuS:音響光学センサフュージョンのためのニューラルネットワークフレームワーク
- Authors: Mohamad Qadri, Kevin Zhang, Akshay Hinduja, Michael Kaess, Adithya
Pediredla, Christopher A. Metzler
- Abstract要約: 水中の知覚と3次元表面の再構築は、建設、セキュリティ、海洋考古学、環境モニタリングにおける幅広い応用において難しい問題である。
本研究は,物理に基づく多モード音響-光学的ニューラルサーフェス再構成フレームワークの開発である。
これらの相補的なモダリティを融合させることで,本フレームワークは,高度に制限されたベースライン上での計測から高精度な高解像度3次元表面を再構築することができる。
- 参考スコア(独自算出の注目度): 26.83067771471808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater perception and 3D surface reconstruction are challenging problems
with broad applications in construction, security, marine archaeology, and
environmental monitoring. Treacherous operating conditions, fragile
surroundings, and limited navigation control often dictate that submersibles
restrict their range of motion and, thus, the baseline over which they can
capture measurements. In the context of 3D scene reconstruction, it is
well-known that smaller baselines make reconstruction more challenging. Our
work develops a physics-based multimodal acoustic-optical neural surface
reconstruction framework (AONeuS) capable of effectively integrating
high-resolution RGB measurements with low-resolution depth-resolved imaging
sonar measurements. By fusing these complementary modalities, our framework can
reconstruct accurate high-resolution 3D surfaces from measurements captured
over heavily-restricted baselines. Through extensive simulations and in-lab
experiments, we demonstrate that AONeuS dramatically outperforms recent
RGB-only and sonar-only inverse-differentiable-rendering--based surface
reconstruction methods. A website visualizing the results of our paper is
located at this address: https://aoneus.github.io/
- Abstract(参考訳): 水中の知覚と3次元表面の再構築は、建設、セキュリティ、海洋考古学、環境モニタリングにおける幅広い応用において難しい問題である。
不安定な操作条件、脆弱な環境、限られた航法制御は、潜水艇の動作範囲を制限し、測定値のベースラインを捉えることをしばしば指示する。
3次元シーン再構築の文脈では、より小さなベースラインが再構築をより困難にしているのはよく知られている。
本研究は,高分解能RGB計測と低分解能深度画像ソナー計測を効果的に統合できる物理ベースの多モード音響-光学ニューラルサーフェス再構成フレームワーク(AONeuS)を開発した。
これらの相補的なモダリティを融合させることで, 高精度な高解像度3次元表面の再構成が可能となる。
広範囲なシミュレーションと実験により, AONeuS は最近の RGB とソナーのみの逆微分可能な面再構成法を劇的に上回ることを示した。
論文の結果を視覚化するwebサイトがこのアドレスにある。 https://aoneus.github.io/
関連論文リスト
- Deep Neural Networks for Accurate Depth Estimation with Latent Space Features [0.0]
本研究では,深部畳み込みニューラルネットワークにおける潜時空間特徴を利用した新しい深度推定フレームワークを提案する。
提案モデルでは,2つのエンコーダ・デコーダアーキテクチャを特徴とし,色から深度への変換と深度への変換が可能である。
フレームワークはNYU Depth V2データセットを使用して徹底的にテストされている。
論文 参考訳(メタデータ) (2025-02-17T13:11:35Z) - PBR-NeRF: Inverse Rendering with Physics-Based Neural Fields [49.6405458373509]
シーン形状,材料,照明を共同で推定できる逆レンダリング(IR)モデルを提案する。
本手法は, 材料推定を必要とする他の逆レンダリングおよび3次元再構成フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-12-12T19:00:21Z) - SMORE: Simulataneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - NeSLAM: Neural Implicit Mapping and Self-Supervised Feature Tracking With Depth Completion and Denoising [23.876281686625134]
我々は,高精度で密度の高い深度推定,ロバストなカメラトラッキング,新しいビューの現実的な合成を実現するフレームワークNeSLAMを提案する。
各種屋内データセットを用いた実験は、再構築、品質追跡、新しいビュー合成におけるシステムの有効性と精度を示す。
論文 参考訳(メタデータ) (2024-03-29T07:59:37Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - Incremental Dense Reconstruction from Monocular Video with Guided Sparse
Feature Volume Fusion [23.984073189849024]
本報告では, TSDF値のリアルタイムな特徴量に基づく高密度再構成手法を提案し, 新たな深部特徴量からTSDF値を推定する。
不確実性を認識したマルチビューステレオネットワークを利用して、スパース特徴量における物理表面の初期ボクセル位置を推定する。
提案手法は,多くの場合において,より細部でより完全な再構築が可能であることを示す。
論文 参考訳(メタデータ) (2023-05-24T09:06:01Z) - Looking Through the Glass: Neural Surface Reconstruction Against High
Specular Reflections [72.45512144682554]
暗黙的ニューラルレンダリングに基づく新しい表面再構成フレームワークNeuS-HSRを提案する。
NeuS-HSRでは、物体表面は暗黙の符号付き距離関数としてパラメータ化される。
我々は、NeuS-HSRが、HSRに対する高精度で堅牢なターゲット表面再構成において、最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-18T02:34:58Z) - MonoSDF: Exploring Monocular Geometric Cues for Neural Implicit Surface
Reconstruction [72.05649682685197]
最先端のニューラル暗黙法は、多くの入力ビューから単純なシーンの高品質な再構築を可能にする。
これは主に、十分な制約を提供していないRGB再構築損失の固有の曖昧さによって引き起こされる。
近年の単分子形状予測の分野での進歩に触発され, ニューラルな暗黙的表面再構成の改善にこれらの方法が役立つかを探究する。
論文 参考訳(メタデータ) (2022-06-01T17:58:15Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - HRBF-Fusion: Accurate 3D reconstruction from RGB-D data using on-the-fly
implicits [11.83399015126983]
高忠実度3Dオブジェクトやシーンの再構成は、基本的な研究課題である。
RGB-D融合の最近の進歩は、消費者レベルのRGB-Dカメラから3Dモデルを製造する可能性を示している。
既存のアプローチは、カメラ追跡における誤差の蓄積と再構成における歪みに悩まされている。
論文 参考訳(メタデータ) (2022-02-03T20:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。