論文の概要: Care3D: An Active 3D Object Detection Dataset of Real Robotic-Care
Environments
- arxiv url: http://arxiv.org/abs/2310.05600v1
- Date: Mon, 9 Oct 2023 10:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 06:30:57.457417
- Title: Care3D: An Active 3D Object Detection Dataset of Real Robotic-Care
Environments
- Title(参考訳): care3d: ロボットケア環境のアクティブな3dオブジェクト検出データセット
- Authors: Michael G. Adam, Sebastian Eger, Martin Piccolrovazzi, Maged Iskandar,
Joern Vogel, Alexander Dietrich, Seongjien Bien, Jon Skerlj, Abdeldjallil
Naceri, Eckehard Steinbach, Alin Albu-Schaeffer, Sami Haddadin, Wolfram
Burgard
- Abstract要約: 本稿では,実環境の注釈付きデータセットを紹介する。
捕獲された環境は、ロボット医療研究の分野ですでに使われている領域を表している。
また,医療ロボット上で直接動作するSLAMアルゴリズムを評価するために,一室で真実データを提供する。
- 参考スコア(独自算出の注目度): 52.425280825457385
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As labor shortage increases in the health sector, the demand for assistive
robotics grows. However, the needed test data to develop those robots is
scarce, especially for the application of active 3D object detection, where no
real data exists at all. This short paper counters this by introducing such an
annotated dataset of real environments. The captured environments represent
areas which are already in use in the field of robotic health care research. We
further provide ground truth data within one room, for assessing SLAM
algorithms running directly on a health care robot.
- Abstract(参考訳): 医療分野における労働力不足の増加に伴い、補助ロボットの需要が増大する。
しかし、これらのロボットを開発するために必要なテストデータは、特に実際のデータが存在しないアクティブな3Dオブジェクト検出の応用には不十分である。
この短い論文は、このような実環境の注釈付きデータセットを導入することでこれに対抗する。
捕獲された環境は、ロボット医療研究の分野ですでに使われている領域を表している。
さらに,医療ロボット上で直接動作するSLAMアルゴリズムを評価するために,一室で真実データを提供する。
関連論文リスト
- RoboSpatial: Teaching Spatial Understanding to 2D and 3D Vision-Language Models for Robotics [26.42651735582044]
室内とテーブルトップのシーンを3Dスキャンで捉えた大規模な空間理解データセットであるRoboSpatialと,ロボット工学に関連する豊富な空間情報を付加したエゴセントリック画像を紹介する。
実験の結果,RoboSpatialで訓練したモデルは,空間的空き時間予測,空間的関係予測,ロボット操作といった下流タスクのベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-11-25T16:21:34Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - ScanERU: Interactive 3D Visual Grounding based on Embodied Reference
Understanding [67.21613160846299]
Embodied Reference Understanding (ERU) はこの懸念に対して最初に設計されている。
ScanERUと呼ばれる新しいデータセットは、このアイデアの有効性を評価するために構築されている。
論文 参考訳(メタデータ) (2023-03-23T11:36:14Z) - COVERED, CollabOratiVE Robot Environment Dataset for 3D Semantic
segmentation [39.64058995273062]
この研究は、このユースケース用に特別に設計された"CoVERED"という新しいデータセットを開発する。
本稿では,現在最先端(SOTA)アルゴリズムの性能をデータセット上で評価し,マルチLiDARシステムを用いた協調作業空間のリアルタイムセマンティックセマンティックセグメンテーションを実演する。
我々の知覚パイプラインは、8Hzのスループットを維持しながら、予測点精度が$>96%、$>92%の平均交叉率(mIOU)で20Hzのスループットを達成する。
論文 参考訳(メタデータ) (2023-02-24T14:24:58Z) - Situational Graphs for Robot Navigation in Structured Indoor
Environments [9.13466172688693]
環境を表す1つのグラフからなるリアルタイムオンライン構築状況グラフ(S-Graphs)を提示する。
本手法は3次元LiDARスキャンから抽出した計測値と平面面を用いて3層Sグラフをリアルタイムに構築・最適化する。
提案手法は,ロボットのポーズ推定の最先端結果を示すだけでなく,環境の計量意味・トポロジーモデルにも寄与する。
論文 参考訳(メタデータ) (2022-02-24T16:59:06Z) - Indoor Semantic Scene Understanding using Multi-modality Fusion [0.0]
本研究では,環境のセマンティックマップを生成するために,2次元および3次元検出枝を融合したセマンティックシーン理解パイプラインを提案する。
収集したデータセットで評価された以前の研究とは異なり、私たちはアクティブなフォトリアリスティックなロボット環境でパイプラインをテストする。
我々の新規性には、投影された2次元検出とオブジェクトサイズに基づくモダリティ融合を用いた3次元提案の修正が含まれる。
論文 参考訳(メタデータ) (2021-08-17T13:30:02Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。