論文の概要: A Collaborative Visual SLAM Framework for Service Robots
- arxiv url: http://arxiv.org/abs/2102.03228v1
- Date: Fri, 5 Feb 2021 15:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 12:55:41.717391
- Title: A Collaborative Visual SLAM Framework for Service Robots
- Title(参考訳): サービスロボットのための協調型ビジュアルSLAMフレームワーク
- Authors: Ming Ouyang, Xuesong Shi, Yujie Wang, Yuxin Tian, Yingzhe Shen, Dawei
Wang, Peng Wang
- Abstract要約: サービスロボットのための協調的な視覚的同時ローカライゼーションとマッピング(SLAM)フレームワークを提案する。
各ロボットは、既存の地図に登録したり、地図を更新したり、新しい地図を作ったりできる。
各ロボットが他のロボットが観察したランドマークを取得できるようにするためにランドマーク検索手法を提案する。
- 参考スコア(独自算出の注目度): 14.41737199910213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid deployment of service robots, a method should be established
to allow multiple robots to work in the same place to collaborate and share the
spatial information. To this end, we present a collaborative visual
simultaneous localization and mapping (SLAM) framework particularly designed
for service robot scenarios. With an edge server maintaining a map database and
performing global optimization, each robot can register to an existing map,
update the map, or build new maps, all with a unified interface and low
computation and memory cost. To enable real-time information sharing, an
efficient landmark retrieval method is proposed to allow each robot to get
nearby landmarks observed by others. The framework is general enough to support
both RGB-D and monocular cameras, as well as robots with multiple cameras,
taking the rigid constraints between cameras into consideration. The proposed
framework has been fully implemented and verified with public datasets and live
experiments.
- Abstract(参考訳): サービスロボットの迅速な展開では、複数のロボットが同じ場所で作業し、空間情報を共同で共有するための方法を確立する必要がある。
そこで本稿では,特にサービスロボットシナリオ用に設計されたslam(visual concurrent localization and mapping)フレームワークを提案する。
エッジサーバがマップデータベースを維持し、グローバル最適化を実行することで、各ロボットは既存のマップに登録したり、マップを更新したり、新しいマップを構築したりすることができます。
リアルタイム情報共有を可能にするために,各ロボットが周囲のランドマークを観測できる効率的なランドマーク検索手法を提案する。
このフレームワークは、RGB-Dと単眼カメラの両方をサポートするのに十分一般的であり、複数のカメラを備えたロボットも、カメラ間の厳格な制約を考慮しています。
提案されたフレームワークは完全に実装され、公開データセットとライブ実験で検証されている。
関連論文リスト
- PRISM-TopoMap: Online Topological Mapping with Place Recognition and Scan Matching [42.74395278382559]
本稿では,局所的な位置のグラフを保持するトポロジカルマッピング手法であるPRISM-TopoMapを紹介する。
提案手法は,ローカライゼーションとループ閉鎖のためのスキャンマッチングパイプラインと組み合わせた学習可能なマルチモーダル位置認識を含む。
提案手法の広範な実験的評価を,写真実写環境および実ロボット上で行った。
論文 参考訳(メタデータ) (2024-04-02T06:25:16Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Active Visual Localization for Multi-Agent Collaboration: A Data-Driven Approach [47.373245682678515]
本研究は、視点変化の課題を克服するために、アクティブな視覚的ローカライゼーションをどのように利用できるかを検討する。
具体的には、与えられた場所における最適な視点を選択する問題に焦点をあてる。
その結果,既存の手法と比較して,データ駆動方式の方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-04T08:18:30Z) - ExAug: Robot-Conditioned Navigation Policies via Geometric Experience
Augmentation [73.63212031963843]
本研究では,多様な環境における複数のデータセットから異なるロボットプラットフォームを体験するための新しいフレームワークであるExAugを提案する。
トレーニングされたポリシーは、屋内と屋外の障害物のある3つの異なるカメラを備えた2つの新しいロボットプラットフォームで評価される。
論文 参考訳(メタデータ) (2022-10-14T01:32:15Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Edge Robotics: Edge-Computing-Accelerated Multi-Robot Simultaneous
Localization and Mapping [22.77685685539304]
RecSLAMは、ロボットエッジクラウドアーキテクチャ下でのマップ構築プロセスの高速化に焦点を当てたマルチロボットレーザーSLAMシステムである。
ロボット上でグラフィックマップを生成し、それらをクラウド上で完全にマージする従来のマルチロボットSLAMとは対照的に、RecSLAMは階層的なマップ融合技術を開発する。
大規模な評価では、RecSLAMは最先端よりも39%の処理遅延を削減できる。
論文 参考訳(メタデータ) (2021-12-25T10:40:49Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z) - Kimera-Multi: a System for Distributed Multi-Robot Metric-Semantic
Simultaneous Localization and Mapping [57.173793973480656]
本稿では,高密度メカニカル・セマンティックSLAMのための完全分散マルチロボットシステムを提案する。
私たちのシステムはKimera-Multiと呼ばれ、視覚慣性センサーを備えたロボットチームによって実装されています。
Kimera-Multiは環境の3Dメッシュモデルをリアルタイムで構築し、メッシュの各面にセマンティックラベルをアノテートする。
論文 参考訳(メタデータ) (2020-11-08T21:38:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。