論文の概要: Online Localisation and Colored Mesh Reconstruction Architecture for 3D
Visual Feedback in Robotic Exploration Missions
- arxiv url: http://arxiv.org/abs/2207.10489v1
- Date: Thu, 21 Jul 2022 14:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:37:09.569738
- Title: Online Localisation and Colored Mesh Reconstruction Architecture for 3D
Visual Feedback in Robotic Exploration Missions
- Title(参考訳): ロボット探査における3次元視覚フィードバックのためのオンライン局所化とカラーメッシュ再構成アーキテクチャ
- Authors: Quentin Serdel, Christophe Grand, Julien Marzat and Julien Moras
- Abstract要約: 本稿では,地中探査ロボットのためのオンライン・ローカライゼーションとカラーメッシュ再構成(OLCMR)ROS認識アーキテクチャを提案する。
遠隔操作者が地図化された環境をミッションの前後で容易に視覚化するために使用することを意図している。
- 参考スコア(独自算出の注目度): 2.8213955186000512
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces an Online Localisation and Colored Mesh Reconstruction
(OLCMR) ROS perception architecture for ground exploration robots aiming to
perform robust Simultaneous Localisation And Mapping (SLAM) in challenging
unknown environments and provide an associated colored 3D mesh representation
in real time. It is intended to be used by a remote human operator to easily
visualise the mapped environment during or after the mission or as a
development base for further researches in the field of exploration robotics.
The architecture is mainly composed of carefully-selected open-source ROS
implementations of a LiDAR-based SLAM algorithm alongside a colored surface
reconstruction procedure using a point cloud and RGB camera images projected
into the 3D space. The overall performances are evaluated on the Newer College
handheld LiDAR-Vision reference dataset and on two experimental trajectories
gathered on board of representative wheeled robots in respectively urban and
countryside outdoor environments. Index Terms: Field Robots, Mapping, SLAM,
Colored Surface Reconstruction
- Abstract(参考訳): 本稿では、未知環境におけるロバストな局所化・マッピング(SLAM)の実現を目的とした地上探査ロボットのためのオンライン局所化・色付きメッシュ再構成(OLCMR)ROS認識アーキテクチャを導入し、リアルタイムに色付き3Dメッシュ表現を提供する。
遠隔の人間のオペレーターが、ミッション中やその後にマッピングされた環境を簡単に可視化したり、探査ロボティクスの分野でさらなる研究を行うための開発基地として使うことを意図している。
このアーキテクチャは主に、LiDARベースのSLAMアルゴリズムを慎重に選択したオープンソースのROS実装と、ポイントクラウドとRGBカメライメージを3D空間に投影したカラー表面再構成手順で構成されている。
新しい大学ハンドヘルドlidar-visionリファレンスデータセットと、都市と田舎の屋外環境の代表的な車輪型ロボットのボードに集められた2つの実験軌道を用いて、全体的なパフォーマンスを評価した。
インデックス用語:フィールドロボット、マッピング、SLAM、色付き表面再構成
関連論文リスト
- Render and Diffuse: Aligning Image and Action Spaces for Diffusion-based Behaviour Cloning [15.266994159289645]
Render and Diffuse(R&D)は,ロボットの3次元モデルの仮想レンダリングを用いて,画像空間内の低レベルロボット動作とRGB観察を統一する手法である。
この空間統一は学習問題を単純化し、サンプル効率と空間一般化に不可欠な帰納バイアスを導入する。
以上の結果から,R&Dは空間一般化能力が高く,より一般的なイメージ・ツー・アクション法よりもサンプリング効率が高いことがわかった。
論文 参考訳(メタデータ) (2024-05-28T14:06:10Z) - NSLF-OL: Online Learning of Neural Surface Light Fields alongside
Real-time Incremental 3D Reconstruction [0.76146285961466]
そこで本研究では,視線方向の小さな方向に対応できるニューラルサーフェス光場モデルを提案する。
我々のモデルは、リアルタイムな3次元再構成の他に、シーケンシャルなデータストリームを共有入力として、ニューラルネットワーク光場(NSLF)をオンラインで学習する。
オンライントレーニングに加えて、可視化のためにデータストリームを完了した後のリアルタイムレンダリングも提供する。
論文 参考訳(メタデータ) (2023-04-29T15:41:15Z) - Object Goal Navigation Based on Semantics and RGB Ego View [9.702784248870522]
本稿では,RGBエゴビューを前提として,サービスロボットが屋内環境のセマンティックな意思決定を行えるようにするためのアーキテクチャと方法論を提案する。
ロボットはジオセムマップ(幾何マップと意味マップのリレーショナル組み合わせ)に基づいてナビゲートする。
提案手法は, 平均完了時間に対するゲーミフィケーション評価において, 人間のユーザよりも優れていた。
論文 参考訳(メタデータ) (2022-10-20T19:23:08Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Beyond Visual Field of View: Perceiving 3D Environment with Echoes and
Vision [51.385731364529306]
本稿では,エコーとRGB画像を用いた3次元環境の知覚とナビゲーションに焦点を当てた。
特に、複数の方向から受信したエコーでRGB画像を融合して深度推定を行う。
本稿では,RGB像を補完する3次元構造について,エコーが包括的かつ包括的情報を提供することを示す。
論文 参考訳(メタデータ) (2022-07-03T22:31:47Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z) - SPSG: Self-Supervised Photometric Scene Generation from RGB-D Scans [34.397726189729994]
SPSGは、RGB-Dスキャン観測から高品質で色のついたシーンの3Dモデルを生成するための新しいアプローチである。
我々の自己監督的アプローチは、不完全なRGB-Dスキャンと、そのスキャンのより完全なバージョンとを関連付けて、幾何学と色を共同で塗布することを学ぶ。
論文 参考訳(メタデータ) (2020-06-25T18:58:23Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。