論文の概要: Real-Time Dense 3D Mapping of Underwater Environments
- arxiv url: http://arxiv.org/abs/2304.02704v1
- Date: Wed, 5 Apr 2023 18:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 16:21:27.964345
- Title: Real-Time Dense 3D Mapping of Underwater Environments
- Title(参考訳): 水中環境のリアルタイム3次元マッピング
- Authors: Weihan Wang, Bharat Joshi, Nathaniel Burgdorfer, Konstantinos Batsos,
Alberto Quattrini Li, Philippos Mordohai, Ioannis Rekleitis
- Abstract要約: 本稿では,資源制約型自律下水車(AUV)のリアルタイム高密度3次元再構成について述べる。
水中視覚誘導手術は、外力の有無、視界の制限、位置決めの欠如などにおいて3次元運動を組み合わせ、最も困難な作業である。
我々のパイプラインは、1つのCPU上で高いフレームレートで、最先端のオフライン3D再構成手法であるCOLMAPに匹敵する再構成を生成する。
- 参考スコア(独自算出の注目度): 8.264747090866754
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper addresses real-time dense 3D reconstruction for a
resource-constrained Autonomous Underwater Vehicle (AUV). Underwater
vision-guided operations are among the most challenging as they combine 3D
motion in the presence of external forces, limited visibility, and absence of
global positioning. Obstacle avoidance and effective path planning require
online dense reconstructions of the environment. Autonomous operation is
central to environmental monitoring, marine archaeology, resource utilization,
and underwater cave exploration. To address this problem, we propose to use
SVIn2, a robust VIO method, together with a real-time 3D reconstruction
pipeline. We provide extensive evaluation on four challenging underwater
datasets. Our pipeline produces comparable reconstruction with that of COLMAP,
the state-of-the-art offline 3D reconstruction method, at high frame rates on a
single CPU.
- Abstract(参考訳): 本稿では,資源制約型自律水中車両(AUV)のリアルタイム3次元再構成について述べる。
水中視覚誘導手術は、外力の有無、視界の制限、位置決めの欠如などにおいて3次元運動を組み合わせ、最も困難な作業である。
障害物回避と効果的な経路計画には、オンライン環境の密集した再構築が必要である。
自律的な活動は、環境モニタリング、海洋考古学、資源利用、水中洞窟探査の中心である。
この問題に対処するために,実時間3次元再構成パイプラインとともに,ロバストなVIO手法であるSVIn2を提案する。
4つの挑戦的な水中データセットについて広範囲に評価する。
我々のパイプラインは、1つのCPU上で高いフレームレートで、最先端のオフライン3D再構成手法であるCOLMAPに匹敵する再構成を生成する。
関連論文リスト
- OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Efficient Large-scale AUV-based Visual Seafloor Mapping [6.7864586321550595]
海底画像と視覚マッピングの最近の進歩を取り入れ,海底のヘクタールの自動3次元再構築を支援するシステムを提案する。
我々のアプローチは,画像の省略や潜水時間制限の有効利用のために,弱い登録領域の検出と再考が困難である。
提案システムは, 実環境下でのロバスト性および実用性を実証し, いくつかの調査巡航において広範囲に検証され, 評価されている。
論文 参考訳(メタデータ) (2023-08-11T14:24:03Z) - UAVs Beneath the Surface: Cooperative Autonomy for Subterranean Search
and Rescue in DARPA SubT [5.145696432159643]
本稿では, 複雑なトポロジを持つ地下ドメインの探索・救助作業において, 自律的協調型UAVの新たなアプローチを提案する。
提案されたシステムは、DARPA SubTファイナルのVirtual TrackでCTU-CRAS-NORLABチームの一員として第2位にランクされた。
提案手法はまた、現実世界の競争の極端に厳しく制限された環境で飛行する物理的UAVに展開するための堅牢なシステムであることを証明した。
論文 参考訳(メタデータ) (2022-06-16T13:54:33Z) - Non-local Recurrent Regularization Networks for Multi-view Stereo [108.17325696835542]
深層多視点ステレオネットワークでは、正確な深さ推定を実現するためにコスト正規化が不可欠である。
NR2-Netと呼ばれるマルチビューステレオのための新しい非局所リカレント正規化ネットワークを提案する。
提案手法は,DTU,タンク,テンプルの双方のデータセットに対して,最先端の再構築結果を実現する。
論文 参考訳(メタデータ) (2021-10-13T01:43:54Z) - Mesh Reconstruction from Aerial Images for Outdoor Terrain Mapping Using
Joint 2D-3D Learning [12.741811850885309]
本稿では,無人航空機から得られた頭上画像を用いて,屋外地形のマッピングを行う。
飛行中の航空画像からの深度推定は困難です。
各カメラの局所メッシュを再構成する2d-3d学習手法を共同開発し,地球環境モデルとして構築する。
論文 参考訳(メタデータ) (2021-01-06T02:09:03Z) - Where to Explore Next? ExHistCNN for History-aware Autonomous 3D
Exploration [39.376150974078364]
深度カメラを用いた未知の屋内環境の自律的3次元探査の課題に対処する。
我々は、未知領域のカバレッジを最大化するNext Best View (NBV) の評価として、この問題を論じる。
本稿では,現在の3次元観測(深度フレーム)と現在進行中の再建の歴史をエンコードする,学習に基づく新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2020-11-30T10:29:29Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。