論文の概要: Care3D: An Active 3D Object Detection Dataset of Real Robotic-Care
Environments
- arxiv url: http://arxiv.org/abs/2310.05600v1
- Date: Mon, 9 Oct 2023 10:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 06:30:57.457417
- Title: Care3D: An Active 3D Object Detection Dataset of Real Robotic-Care
Environments
- Title(参考訳): care3d: ロボットケア環境のアクティブな3dオブジェクト検出データセット
- Authors: Michael G. Adam, Sebastian Eger, Martin Piccolrovazzi, Maged Iskandar,
Joern Vogel, Alexander Dietrich, Seongjien Bien, Jon Skerlj, Abdeldjallil
Naceri, Eckehard Steinbach, Alin Albu-Schaeffer, Sami Haddadin, Wolfram
Burgard
- Abstract要約: 本稿では,実環境の注釈付きデータセットを紹介する。
捕獲された環境は、ロボット医療研究の分野ですでに使われている領域を表している。
また,医療ロボット上で直接動作するSLAMアルゴリズムを評価するために,一室で真実データを提供する。
- 参考スコア(独自算出の注目度): 52.425280825457385
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As labor shortage increases in the health sector, the demand for assistive
robotics grows. However, the needed test data to develop those robots is
scarce, especially for the application of active 3D object detection, where no
real data exists at all. This short paper counters this by introducing such an
annotated dataset of real environments. The captured environments represent
areas which are already in use in the field of robotic health care research. We
further provide ground truth data within one room, for assessing SLAM
algorithms running directly on a health care robot.
- Abstract(参考訳): 医療分野における労働力不足の増加に伴い、補助ロボットの需要が増大する。
しかし、これらのロボットを開発するために必要なテストデータは、特に実際のデータが存在しないアクティブな3Dオブジェクト検出の応用には不十分である。
この短い論文は、このような実環境の注釈付きデータセットを導入することでこれに対抗する。
捕獲された環境は、ロボット医療研究の分野ですでに使われている領域を表している。
さらに,医療ロボット上で直接動作するSLAMアルゴリズムを評価するために,一室で真実データを提供する。
関連論文リスト
- HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation [16.36110033895749]
本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
論文 参考訳(メタデータ) (2023-04-21T09:57:35Z) - ScanERU: Interactive 3D Visual Grounding based on Embodied Reference
Understanding [67.21613160846299]
Embodied Reference Understanding (ERU) はこの懸念に対して最初に設計されている。
ScanERUと呼ばれる新しいデータセットは、このアイデアの有効性を評価するために構築されている。
論文 参考訳(メタデータ) (2023-03-23T11:36:14Z) - COVERED, CollabOratiVE Robot Environment Dataset for 3D Semantic
segmentation [39.64058995273062]
この研究は、このユースケース用に特別に設計された"CoVERED"という新しいデータセットを開発する。
本稿では,現在最先端(SOTA)アルゴリズムの性能をデータセット上で評価し,マルチLiDARシステムを用いた協調作業空間のリアルタイムセマンティックセマンティックセグメンテーションを実演する。
我々の知覚パイプラインは、8Hzのスループットを維持しながら、予測点精度が$>96%、$>92%の平均交叉率(mIOU)で20Hzのスループットを達成する。
論文 参考訳(メタデータ) (2023-02-24T14:24:58Z) - Situational Graphs for Robot Navigation in Structured Indoor
Environments [9.13466172688693]
環境を表す1つのグラフからなるリアルタイムオンライン構築状況グラフ(S-Graphs)を提示する。
本手法は3次元LiDARスキャンから抽出した計測値と平面面を用いて3層Sグラフをリアルタイムに構築・最適化する。
提案手法は,ロボットのポーズ推定の最先端結果を示すだけでなく,環境の計量意味・トポロジーモデルにも寄与する。
論文 参考訳(メタデータ) (2022-02-24T16:59:06Z) - Indoor Semantic Scene Understanding using Multi-modality Fusion [0.0]
本研究では,環境のセマンティックマップを生成するために,2次元および3次元検出枝を融合したセマンティックシーン理解パイプラインを提案する。
収集したデータセットで評価された以前の研究とは異なり、私たちはアクティブなフォトリアリスティックなロボット環境でパイプラインをテストする。
我々の新規性には、投影された2次元検出とオブジェクトサイズに基づくモダリティ融合を用いた3次元提案の修正が含まれる。
論文 参考訳(メタデータ) (2021-08-17T13:30:02Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Semantics for Robotic Mapping, Perception and Interaction: A Survey [93.93587844202534]
理解の研究は、ロボットに世界が何を意味するのかを決定する。
人間とロボットが同じ世界で活動するようになるにつれ、人間とロボットの相互作用の展望も意味論をもたらす。
ニーズや、トレーニングデータや計算リソースの可用性向上などによって駆動されるセマンティックスは、ロボティクスにおける急速に成長している研究領域である。
論文 参考訳(メタデータ) (2021-01-02T12:34:39Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。