論文の概要: HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation
- arxiv url: http://arxiv.org/abs/2304.10854v1
- Date: Fri, 21 Apr 2023 09:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:12:38.852949
- Title: HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation
- Title(参考訳): HabitatDynデータセット:動的物体検出と運動学推定
- Authors: Zhengcheng Shen, Yi Gao, Linh K\"astner, Jens Lambrecht
- Abstract要約: 本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
- 参考スコア(独自算出の注目度): 16.36110033895749
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The advancement of computer vision and machine learning has made datasets a
crucial element for further research and applications. However, the creation
and development of robots with advanced recognition capabilities are hindered
by the lack of appropriate datasets. Existing image or video processing
datasets are unable to accurately depict observations from a moving robot, and
they do not contain the kinematics information necessary for robotic tasks.
Synthetic data, on the other hand, are cost-effective to create and offer
greater flexibility for adapting to various applications. Hence, they are
widely utilized in both research and industry. In this paper, we propose the
dataset HabitatDyn, which contains both synthetic RGB videos, semantic labels,
and depth information, as well as kinetics information. HabitatDyn was created
from the perspective of a mobile robot with a moving camera, and contains 30
scenes featuring six different types of moving objects with varying velocities.
To demonstrate the usability of our dataset, two existing algorithms are used
for evaluation and an approach to estimate the distance between the object and
camera is implemented based on these segmentation methods and evaluated through
the dataset. With the availability of this dataset, we aspire to foster further
advancements in the field of mobile robotics, leading to more capable and
intelligent robots that can navigate and interact with their environments more
effectively. The code is publicly available at
https://github.com/ignc-research/HabitatDyn.
- Abstract(参考訳): コンピュータビジョンと機械学習の進歩により、データセットはさらなる研究と応用にとって重要な要素となった。
しかし、高度な認識能力を持つロボットの作成と開発は、適切なデータセットの欠如によって妨げられている。
既存の画像や映像処理データセットは、移動ロボットからの観察を正確に描写できず、ロボットタスクに必要な運動情報を含んでいない。
一方、合成データはコスト効率が高く、様々なアプリケーションに適応するための柔軟性を提供する。
そのため、研究と産業の両方で広く利用されている。
本稿では,合成rgbビデオ,意味ラベル,奥行き情報,および動力学的情報を含むデータセットhabitatdynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
データセットのユーザビリティを示すために,既存の2つのアルゴリズムを用いて評価を行い,これらのセグメンテーション手法に基づいてオブジェクトとカメラの距離を推定し,データセットを通じて評価する。
このデータセットが利用可能になったことで、モバイルロボティクスの分野におけるさらなる進歩を促進し、より有能でインテリジェントなロボットがより効率的に環境をナビゲートし、対話できるようになります。
コードはhttps://github.com/ignc-research/HabitatDynで公開されている。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Tiny Robotics Dataset and Benchmark for Continual Object Detection [6.4036245876073234]
本研究は,小型ロボットプラットフォームにおける物体検出システムの連続学習能力を評価するための新しいベンチマークを導入する。
i)TiROD(Tiny Robotics Object Detection)は、小さな移動ロボットを用いて収集された包括的なデータセットで、さまざまなドメインやクラスにわたるオブジェクト検出の適応性をテストするように設計されている。
論文 参考訳(メタデータ) (2024-09-24T16:21:27Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Action-conditioned Deep Visual Prediction with RoAM, a new Indoor Human
Motion Dataset for Autonomous Robots [1.7778609937758327]
ロボット自律運動(RoAM)ビデオデータセットについて紹介する。
このロボットは、ロボットのエゴビジョンから様々な人間の動きを記録する様々な屋内環境において、カスタムメイドのタートルボット3バーガーロボットで収集される。
データセットには、LiDARスキャンの同期記録や、静的で動く人間のエージェントの周りを移動する際にロボットが取るすべての制御アクションも含まれている。
論文 参考訳(メタデータ) (2023-06-28T00:58:44Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。