論文の概要: Volume-DROID: A Real-Time Implementation of Volumetric Mapping with
DROID-SLAM
- arxiv url: http://arxiv.org/abs/2306.06850v1
- Date: Mon, 12 Jun 2023 03:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 16:06:31.864084
- Title: Volume-DROID: A Real-Time Implementation of Volumetric Mapping with
DROID-SLAM
- Title(参考訳): Volume-DROID: DROID-SLAMを用いたボリュームマッピングのリアルタイム実装
- Authors: Peter Stratton, Sandilya Sai Garimella, Ashwin Saxena, Nibarkavi
Amutha, Emaad Gerami
- Abstract要約: Volume-DROIDは、同時局所化とマッピング(SLAM)のための新しいアプローチである
DROID-SLAM、ポイントクラウド登録、オフザシェルフセマンティックセグメンテーションネットワーク、Convolutional Bayesian Kernel Inference(ConvBKI)を組み合わせたものだ。
我々の手法の重要な革新は、DROID-SLAMとConvolutional Bayesian Kernel Inference (ConvBKI)のリアルタイム融合である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Volume-DROID, a novel approach for Simultaneous
Localization and Mapping (SLAM) that integrates Volumetric Mapping and
Differentiable Recurrent Optimization-Inspired Design (DROID). Volume-DROID
takes camera images (monocular or stereo) or frames from a video as input and
combines DROID-SLAM, point cloud registration, an off-the-shelf semantic
segmentation network, and Convolutional Bayesian Kernel Inference (ConvBKI) to
generate a 3D semantic map of the environment and provide accurate localization
for the robot. The key innovation of our method is the real-time fusion of
DROID-SLAM and Convolutional Bayesian Kernel Inference (ConvBKI), achieved
through the introduction of point cloud generation from RGB-Depth frames and
optimized camera poses. This integration, engineered to enable efficient and
timely processing, minimizes lag and ensures effective performance of the
system. Our approach facilitates functional real-time online semantic mapping
with just camera images or stereo video input. Our paper offers an open-source
Python implementation of the algorithm, available at
https://github.com/peterstratton/Volume-DROID.
- Abstract(参考訳): 本稿では,DROID(Dariable Recurrent Optimization-Inspired Design)とVolumetric Mappingを統合した新しいSLAM手法であるVolume-DROIDを提案する。
volume-droidはビデオからカメラ画像(モノクロまたはステレオ)やフレームを入力として取り、droid-slam、point cloud registration、off-the-shelf semantic segmentation network、convolutional bayesian kernel inference(convbki)を組み合わせることで、環境の3dセマンティックマップを生成し、ロボットの正確な位置決めを提供する。
DROID-SLAMとConvolutional Bayesian Kernel Inference (ConvBKI)のリアルタイム融合は,RGB-Depthフレームからの点雲生成と最適化カメラのポーズの導入によって実現された。
この統合は、効率的でタイムリーな処理を可能にし、ラグを最小限に抑え、システムの効果的なパフォーマンスを保証する。
本手法は,カメラ画像やステレオ映像入力のみを用いたリアルタイムオンライン意味マッピングを実現する。
私たちの論文は、このアルゴリズムのオープンソースpython実装をhttps://github.com/peterstratton/volume-droidで公開しています。
関連論文リスト
- Monocular Visual Place Recognition in LiDAR Maps via Cross-Modal State Space Model and Multi-View Matching [2.400446821380503]
我々はRGB画像とポイントクラウドの両方のディスクリプタを学習するための効率的なフレームワークを導入する。
視覚状態空間モデル(VMamba)をバックボーンとして、ピクセルビューとシーンの共同トレーニング戦略を採用している。
視覚的な3Dポイントオーバーラップ戦略は、マルチビューの監視のために、ポイントクラウドビューとRGBイメージの類似性を定量化するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T18:31:41Z) - OrientDream: Streamlining Text-to-3D Generation with Explicit Orientation Control [66.03885917320189]
OrientDreamは、テキストプロンプトから効率よくマルチビューで一貫した3D生成のためのカメラ指向条件付きフレームワークである。
本戦略は,2次元テキスト・画像拡散モジュールの事前学習におけるカメラ配向条件付き機能の実装を強調する。
提案手法は,一貫したマルチビュー特性を持つ高品質なNeRFモデルを生成するだけでなく,既存手法よりも最適化速度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-06-14T13:16:18Z) - Multiway Point Cloud Mosaicking with Diffusion and Global Optimization [74.3802812773891]
マルチウェイポイントクラウドモザイクのための新しいフレームワーク(水曜日)を紹介する。
我々のアプローチの核心は、重複を識別し、注意点を洗練する学習されたペアワイズ登録アルゴリズムODINである。
4つの多種多様な大規模データセットを用いて、我々の手法は、全てのベンチマークにおいて大きなマージンで、最先端のペアとローテーションの登録結果を比較した。
論文 参考訳(メタデータ) (2024-03-30T17:29:13Z) - Gaussian-SLAM: Photo-realistic Dense SLAM with Gaussian Splatting [24.160436463991495]
本稿では3次元ガウスアンをシーン表現として用いたSLAM法を提案する。
本手法は,実世界のシングルカメラRGBDビデオから,インタラクティブなリアルタイム再構成と写真リアルレンダリングを実現する。
論文 参考訳(メタデータ) (2023-12-06T10:47:53Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - CROSSFIRE: Camera Relocalization On Self-Supervised Features from an
Implicit Representation [3.565151496245487]
我々は,あるシーンの暗黙の地図としてニューラル・ラジアンス・フィールドを使用し,この表現に適したカメラ再配置を提案する。
提案手法は,ナビゲーション中に1台のRGBカメラを用いて,デバイスの正確な位置をリアルタイムで計算することができる。
論文 参考訳(メタデータ) (2023-03-08T20:22:08Z) - DSVT: Dynamic Sparse Voxel Transformer with Rotated Sets [95.84755169585492]
本研究では,屋外3次元知覚のためのシングルストライドウィンドウベースのボクセルトランスであるDynamic Sparse Voxel Transformer (DSVT)を提案する。
本モデルでは,3次元認識タスクを多岐にわたって行うことにより,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-01-15T09:31:58Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - ARVo: Learning All-Range Volumetric Correspondence for Video Deblurring [92.40655035360729]
ビデオデブラリングモデルは連続フレームを利用して、カメラの揺動や物体の動きからぼやけを取り除く。
特徴空間におけるボケフレーム間の空間的対応を学習する新しい暗黙的手法を提案する。
提案手法は,新たに収集したビデオデブレーション用ハイフレームレート(1000fps)データセットとともに,広く採用されているDVDデータセット上で評価される。
論文 参考訳(メタデータ) (2021-03-07T04:33:13Z) - Real-time Dense Reconstruction of Tissue Surface from Stereo Optical
Video [10.181846237133167]
立体光学ビデオから組織表面の高密度3次元モデル(3次元)をリアルタイムに再構成する手法を提案する。
まずステレオマッチングを用いてビデオフレームから3D情報を抽出し,再構成した3Dモデルをモザイクする。
2mm未満の精度で高分解能テクスチャを有する復元3Dモデルについて, 生体内および生体内データによる実験結果を得た。
論文 参考訳(メタデータ) (2020-07-16T19:14:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。