論文の概要: Real-Time Dense 3D Mapping of Underwater Environments
- arxiv url: http://arxiv.org/abs/2304.02704v1
- Date: Wed, 5 Apr 2023 18:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 16:21:27.964345
- Title: Real-Time Dense 3D Mapping of Underwater Environments
- Title(参考訳): 水中環境のリアルタイム3次元マッピング
- Authors: Weihan Wang, Bharat Joshi, Nathaniel Burgdorfer, Konstantinos Batsos,
Alberto Quattrini Li, Philippos Mordohai, Ioannis Rekleitis
- Abstract要約: 本稿では,資源制約型自律下水車(AUV)のリアルタイム高密度3次元再構成について述べる。
水中視覚誘導手術は、外力の有無、視界の制限、位置決めの欠如などにおいて3次元運動を組み合わせ、最も困難な作業である。
我々のパイプラインは、1つのCPU上で高いフレームレートで、最先端のオフライン3D再構成手法であるCOLMAPに匹敵する再構成を生成する。
- 参考スコア(独自算出の注目度): 8.264747090866754
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper addresses real-time dense 3D reconstruction for a
resource-constrained Autonomous Underwater Vehicle (AUV). Underwater
vision-guided operations are among the most challenging as they combine 3D
motion in the presence of external forces, limited visibility, and absence of
global positioning. Obstacle avoidance and effective path planning require
online dense reconstructions of the environment. Autonomous operation is
central to environmental monitoring, marine archaeology, resource utilization,
and underwater cave exploration. To address this problem, we propose to use
SVIn2, a robust VIO method, together with a real-time 3D reconstruction
pipeline. We provide extensive evaluation on four challenging underwater
datasets. Our pipeline produces comparable reconstruction with that of COLMAP,
the state-of-the-art offline 3D reconstruction method, at high frame rates on a
single CPU.
- Abstract(参考訳): 本稿では,資源制約型自律水中車両(AUV)のリアルタイム3次元再構成について述べる。
水中視覚誘導手術は、外力の有無、視界の制限、位置決めの欠如などにおいて3次元運動を組み合わせ、最も困難な作業である。
障害物回避と効果的な経路計画には、オンライン環境の密集した再構築が必要である。
自律的な活動は、環境モニタリング、海洋考古学、資源利用、水中洞窟探査の中心である。
この問題に対処するために,実時間3次元再構成パイプラインとともに,ロバストなVIO手法であるSVIn2を提案する。
4つの挑戦的な水中データセットについて広範囲に評価する。
我々のパイプラインは、1つのCPU上で高いフレームレートで、最先端のオフライン3D再構成手法であるCOLMAPに匹敵する再構成を生成する。
関連論文リスト
- Aquatic-GS: A Hybrid 3D Representation for Underwater Scenes [6.549998173302729]
本研究では,水中の物体と水媒体の両方を効果的に表現するハイブリッド3D表現手法であるAquatic-GSを提案する。
具体的には、暗黙的に水パラメータをモデル化するニューラルウォーターフィールド(NWF)を構築し、最新の3Dガウススプラッティング(3DGS)を拡張してオブジェクトを明示的にモデル化する。
両方のコンポーネントは、複雑な水中シーンを表現するために、物理学に基づく水中画像形成モデルを介して統合される。
論文 参考訳(メタデータ) (2024-10-31T22:24:56Z) - UW-SDF: Exploiting Hybrid Geometric Priors for Neural SDF Reconstruction from Underwater Multi-view Monocular Images [63.32490897641344]
ニューラルSDFに基づく多視点水中画像から対象物を再構成するフレームワークを提案する。
再建過程を最適化するためのハイブリッドな幾何学的先行手法を導入し、神経SDF再建の質と効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-10T16:33:56Z) - WiLoR: End-to-end 3D Hand Localization and Reconstruction in-the-wild [53.288327629960364]
野生における効率的なマルチハンド再構築のためのデータ駆動パイプラインを提案する。
提案するパイプラインは、リアルタイム完全畳み込みハンドローカライゼーションと、高忠実度トランスフォーマーに基づく3Dハンド再構成モデルという2つのコンポーネントで構成されている。
提案手法は, 一般的な2次元および3次元のベンチマークにおいて, 効率と精度の両方において, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-18T18:46:51Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Mesh Reconstruction from Aerial Images for Outdoor Terrain Mapping Using
Joint 2D-3D Learning [12.741811850885309]
本稿では,無人航空機から得られた頭上画像を用いて,屋外地形のマッピングを行う。
飛行中の航空画像からの深度推定は困難です。
各カメラの局所メッシュを再構成する2d-3d学習手法を共同開発し,地球環境モデルとして構築する。
論文 参考訳(メタデータ) (2021-01-06T02:09:03Z) - Where to Explore Next? ExHistCNN for History-aware Autonomous 3D
Exploration [39.376150974078364]
深度カメラを用いた未知の屋内環境の自律的3次元探査の課題に対処する。
我々は、未知領域のカバレッジを最大化するNext Best View (NBV) の評価として、この問題を論じる。
本稿では,現在の3次元観測(深度フレーム)と現在進行中の再建の歴史をエンコードする,学習に基づく新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2020-11-30T10:29:29Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。