論文の概要: vMAP: Vectorised Object Mapping for Neural Field SLAM
- arxiv url: http://arxiv.org/abs/2302.01838v1
- Date: Fri, 3 Feb 2023 16:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 15:44:27.530070
- Title: vMAP: Vectorised Object Mapping for Neural Field SLAM
- Title(参考訳): vMAP:ニューラルネットワークSLAMのためのベクトルオブジェクトマッピング
- Authors: Xin Kong, Shikun Liu, Marwan Taher, Andrew J. Davison
- Abstract要約: vMAPは、ニューラルネットワーク表現を用いたオブジェクトレベルの高密度SLAMシステムである。
従来の SLAM システムと比較して,シーンレベルおよびオブジェクトレベルの再構成品質が有意に向上したことを実験的に示す。
- 参考スコア(独自算出の注目度): 17.167580390930873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present vMAP, an object-level dense SLAM system using neural field
representations. Each object is represented by a small MLP, enabling efficient,
watertight object modelling without the need for 3D priors.
As an RGB-D camera browses a scene with no prior information, vMAP detects
object instances on-the-fly, and dynamically adds them to its map.
Specifically, thanks to the power of vectorised training, vMAP can optimise as
many as 50 individual objects in a single scene, with an extremely efficient
training speed of 5Hz map update. We experimentally demonstrate significantly
improved scene-level and object-level reconstruction quality compared to prior
neural field SLAM systems.
- Abstract(参考訳): ニューラルネットワーク表現を用いたオブジェクトレベルの高密度SLAMシステムであるvMAPを提案する。
それぞれのオブジェクトは小さなMLPで表現され、3Dプリエントを必要とせずに効率よく水密なオブジェクトモデリングを可能にする。
rgb-dカメラが事前情報なしでシーンを閲覧すると、vmapはオブジェクトインスタンスをオンザフライで検出し、動的に追加する。
具体的には、ベクトル化されたトレーニングのパワーのおかげで、vmapは1シーンで最大50個の個々のオブジェクトを最適化でき、非常に効率的なトレーニング速度は5hzのマップ更新になる。
従来の SLAM システムと比較して,シーンレベルおよびオブジェクトレベルの再構成品質が有意に向上した。
関連論文リスト
- Toward General Object-level Mapping from Sparse Views with 3D Diffusion Priors [8.701106353658346]
一般的なオブジェクトレベルのマッピングは、細かな形状と多視点センサーの観察によるポーズで、シーン内のオブジェクトの3Dマップを構築する。
最近の研究は、スパースビューからオブジェクトレベルのマッピングに先立つ生成的な形状を導入しているが、それは単一カテゴリオブジェクトに限定されている。
本研究では,3次元拡散モデルを用いた汎用オブジェクトレベルマッピングシステム GOM を提案し,シーン内の全てのオブジェクトのテクスチャと幾何学の両方に対してニューラルレージアンス場 (NeRF) を出力する。
論文 参考訳(メタデータ) (2024-10-07T21:33:30Z) - TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成データと実世界データとの領域ギャップを埋める新しい手法を提案する。
私たちの定式化は、小さな動く物体や人間の行動からなる動的なシーンのために設計されています。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - VOOM: Robust Visual Object Odometry and Mapping using Hierarchical
Landmarks [19.789761641342043]
本稿では,ビジュアルオブジェクトのオドメトリとマッピングフレームワーク VOOM を提案する。
粗い方法で階層的なランドマークとして、高レベルのオブジェクトと低レベルのポイントを使用します。
VOOMはオブジェクト指向SLAMと特徴点SLAMシステムの両方をローカライゼーションで上回る。
論文 参考訳(メタデータ) (2024-02-21T08:22:46Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - Object-level 3D Semantic Mapping using a Network of Smart Edge Sensors [25.393382192511716]
我々は,分散エッジセンサのネットワークとオブジェクトレベルの情報からなる多視点3次元意味マッピングシステムを拡張した。
提案手法は,数cm以内でのポーズ推定と,実験室環境におけるセンサネットワークを用いた実環境実験により,Behaveデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-11-21T11:13:08Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - DSP-SLAM: Object Oriented SLAM with Deep Shape Priors [16.867669408751507]
対象物に対する高密度3次元モデルのリッチで正確な関節マップを構築するオブジェクト指向SLAMシステムを提案する。
DSP-SLAMは特徴ベースのSLAMシステムによって再構築された3Dポイントクラウドを入力として取り込む。
本評価では,近年の深層構造復元法に対して,物体の姿勢と形状の復元が改善したことを示す。
論文 参考訳(メタデータ) (2021-08-21T10:00:12Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - iMAP: Implicit Mapping and Positioning in Real-Time [25.1623315489284]
ハンドヘルドRGB-DカメラのリアルタイムSLAMシステムにおいて,マルチ層パーセプトロン(MLP)が唯一のシーン表現として機能することを示す。
われわれのネットワークは、事前のデータを使わずに、ライブ操作で訓練され、集中した、シーン固有の暗黙の3dモデルを構築します。
論文 参考訳(メタデータ) (2021-03-23T07:21:22Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。