論文の概要: Open-VICO: An Open-Source Gazebo Toolkit for Multi-Camera-based Skeleton
Tracking in Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2203.14733v1
- Date: Mon, 28 Mar 2022 13:21:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 17:17:06.361547
- Title: Open-VICO: An Open-Source Gazebo Toolkit for Multi-Camera-based Skeleton
Tracking in Human-Robot Collaboration
- Title(参考訳): Open-VICO:人間-ロボットコラボレーションにおけるマルチカメラベースの骨格追跡のためのオープンソースのガゼボツールキット
- Authors: Luca Fortini (1), Mattia Leonori (1), Juan M. Gandarias (1), Arash
Ajoudani (1) ((1) Human-Robot Interfaces and Physical Interaction, Istituto
Italiano di Tecnologia)
- Abstract要約: この研究は、ガゼボで仮想人間モデルを統合するためのオープンソースツールキットであるOpen-VICOを提示する。
特に、Open-VICOは、現実的な人間のキネマティックモデル、マルチカメラビジョン設定、そして人間の追跡技術と同じシミュレーション環境で組み合わせることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulation tools are essential for robotics research, especially for those
domains in which safety is crucial, such as Human-Robot Collaboration (HRC).
However, it is challenging to simulate human behaviors, and existing robotics
simulators do not integrate functional human models. This work presents
Open-VICO~\footnote{\url{https://gitlab.iit.it/hrii-public/open-vico}}, an
open-source toolkit to integrate virtual human models in Gazebo focusing on
vision-based human tracking. In particular, Open-VICO allows to combine in the
same simulation environment realistic human kinematic models, multi-camera
vision setups, and human-tracking techniques along with numerous robot and
sensor models thanks to Gazebo. The possibility to incorporate pre-recorded
human skeleton motion with Motion Capture systems broadens the landscape of
human performance behavioral analysis within Human-Robot Interaction (HRI)
settings. To describe the functionalities and stress the potential of the
toolkit four specific examples, chosen among relevant literature challenges in
the field, are developed using our simulation utils: i) 3D multi-RGB-D camera
calibration in simulation, ii) creation of a synthetic human skeleton tracking
dataset based on OpenPose, iii) multi-camera scenario for human skeleton
tracking in simulation, and iv) a human-robot interaction example. The key of
this work is to create a straightforward pipeline which we hope will motivate
research on new vision-based algorithms and methodologies for lightweight
human-tracking and flexible human-robot applications.
- Abstract(参考訳): シミュレーションツールはロボット研究、特にヒューマン・ロボティクス・コラボレーション(HRC)のような安全性が重要である分野において不可欠である。
しかし、人間の振る舞いをシミュレートすることは困難であり、既存のロボットシミュレータは機能的人間モデルを統合していない。
Open-VICO~\footnote{\url{https://gitlab.iit.it/hrii-public/open-vico}}はガゼボで仮想人間モデルを統合するオープンソースツールキットである。
特にOpen-VICOは、現実的な人間の運動モデル、マルチカメラビジョンのセットアップ、そして人間の追跡技術、そしてGazeboのおかげで多くのロボットやセンサーモデルを組み合わせることができる。
予め記録された人間の骨格運動をモーションキャプチャーシステムに組み込むことは、人間-ロボットインタラクション(HRI)設定における人間のパフォーマンス行動解析の景観を広げる。
機能とストレスを説明するために,本研究のシミュレーションツールを用いて,関連する文献課題の中から選択した4つの具体例について述べる。
一 シミュレーションにおける3次元マルチRGB-Dカメラキャリブレーション
ii)openposeに基づく人工ヒト骨格追跡データセットの作成
三 シミュレーションにおけるヒト骨格追跡のためのマルチカメラシナリオ
iv) 人間とロボットの相互作用例。
この研究の鍵は、軽量な人間追跡と柔軟な人間ロボットアプリケーションのための新しいビジョンベースのアルゴリズムと方法論の研究を動機付ける、素直なパイプラインを作ることだ。
関連論文リスト
- Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Enhanced Human-Robot Collaboration using Constrained Probabilistic
Human-Motion Prediction [5.501477817904299]
本研究では,人間の関節の制約とシーンの制約を組み込んだ新しい動き予測フレームワークを提案する。
人間の腕のキネマティックモデルでテストされ、UR5ロボットアームと人間とロボットの協調的な設定で実装されている。
論文 参考訳(メタデータ) (2023-10-05T05:12:14Z) - Action-conditioned Deep Visual Prediction with RoAM, a new Indoor Human
Motion Dataset for Autonomous Robots [1.7778609937758327]
ロボット自律運動(RoAM)ビデオデータセットについて紹介する。
このロボットは、ロボットのエゴビジョンから様々な人間の動きを記録する様々な屋内環境において、カスタムメイドのタートルボット3バーガーロボットで収集される。
データセットには、LiDARスキャンの同期記録や、静的で動く人間のエージェントの周りを移動する際にロボットが取るすべての制御アクションも含まれている。
論文 参考訳(メタデータ) (2023-06-28T00:58:44Z) - ROS-PyBullet Interface: A Framework for Reliable Contact Simulation and
Human-Robot Interaction [17.093672006793984]
信頼性の高いコンタクト/インパクトシミュレータPyBulletとロボットオペレーティングシステム(ROS)のブリッジを提供するフレームワークであるROS-PyBullet Interfaceを提案する。
さらに,シミュレーション環境でのヒューマン・ロボット・インタラクション(HRI)を促進するために,新たなユーティリティを提供する。
論文 参考訳(メタデータ) (2022-10-13T10:31:36Z) - BEHAVE: Dataset and Method for Tracking Human Object Interactions [105.77368488612704]
マルチビューのRGBDフレームとそれに対応する3D SMPLとオブジェクトをアノテートしたアノテートコンタクトに適合させる。
このデータを用いて、自然環境における人間と物体を、容易に使用可能なマルチカメラで共同で追跡できるモデルを学ぶ。
論文 参考訳(メタデータ) (2022-04-14T13:21:19Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。