論文の概要: Continual Learning from Synthetic Data for a Humanoid Exercise Robot
- arxiv url: http://arxiv.org/abs/2102.10034v1
- Date: Fri, 19 Feb 2021 17:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:22:38.573312
- Title: Continual Learning from Synthetic Data for a Humanoid Exercise Robot
- Title(参考訳): ヒューマノイド運動ロボットのための合成データからの連続学習
- Authors: Nicolas Duczek, Matthias Kerzel, Stefan Wermter
- Abstract要約: 実用的なシナリオでは、理学療法士のような専門家が身体運動を行い、ペッパーのようなヒューマノイドロボットの基準として使用し、患者の同じ運動の実行に対するフィードバックを与える。
本稿では,視野の中心に関する翻訳と回転の許容性を実現するアーキテクチャを設計することで,第1の課題に挑戦する。
第2の課題は、GWRがインクリメンタルデータでオンラインで成長できるようにすることです。
評価のために,仮想アバターを用いた新しいエクササイズデータセット「virtual-squat dataset」を作成した。
- 参考スコア(独自算出の注目度): 15.297262564198972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to detect and correct physical exercises, a Grow-When-Required
Network (GWR) with recurrent connections, episodic memory and a novel subnode
mechanism is developed in order to learn spatiotemporal relationships of body
movements and poses. Once an exercise is performed, the information of pose and
movement per frame is stored in the GWR. For every frame, the current pose and
motion pair is compared against a predicted output of the GWR, allowing for
feedback not only on the pose but also on the velocity of the motion. In a
practical scenario, a physical exercise is performed by an expert like a
physiotherapist and then used as a reference for a humanoid robot like Pepper
to give feedback on a patient's execution of the same exercise. This approach,
however, comes with two challenges. First, the distance from the humanoid robot
and the position of the user in the camera's view of the humanoid robot have to
be considered by the GWR as well, requiring a robustness against the user's
positioning in the field of view of the humanoid robot. Second, since both the
pose and motion are dependent on the body measurements of the original
performer, the expert's exercise cannot be easily used as a reference. This
paper tackles the first challenge by designing an architecture that allows for
tolerances in translation and rotations regarding the center of the field of
view. For the second challenge, we allow the GWR to grow online on incremental
data. For evaluation, we created a novel exercise dataset with virtual avatars
called the Virtual-Squat dataset. Overall, we claim that our novel architecture
based on the GWR can use a learned exercise reference for different body
variations through continual online learning, while preventing catastrophic
forgetting, enabling for an engaging long-term human-robot interaction with a
humanoid robot.
- Abstract(参考訳): 身体運動の検出と修正のために、身体運動とポーズの時空間関係を学習するために、反復接続、エピソディックメモリ、新規サブノード機構を備えた成長時要求ネットワーク(gwr)を開発した。
演習が実行されると、フレームごとのポーズと動きに関する情報がGWRに保存されます。
すべてのフレームに対して、現在のポーズとモーションのペアは、GWRの予測出力と比較され、ポーズだけでなく、動きの速度にもフィードバックすることができます。
実用的なシナリオでは、理学療法士のような専門家が身体運動を行い、ペッパーのようなヒューマノイドロボットの基準として使用し、患者の同じ運動の実行に対するフィードバックを与える。
しかし、このアプローチには2つの課題がある。
まず、ヒューマノイドロボットからの距離とカメラのヒューマノイドロボットの視点におけるユーザーの位置もGWRによって考慮されなければならず、ヒューマノイドロボットの視野におけるユーザーの位置に対する堅牢性を必要とする。
第二に、ポーズと動きの両方が元のパフォーマーの身体測定に依存しているため、専門家の運動は参照として簡単に使用することはできません。
本稿では,視野の中心に関する翻訳と回転の許容性を実現するアーキテクチャを設計することで,第1の課題に挑戦する。
第2の課題は、GWRがインクリメンタルデータでオンラインで成長できるようにすることです。
評価のために,仮想アバターを用いた新しいエクササイズデータセット「virtual-squat dataset」を作成した。
全体として、GWRに基づく私たちの新しいアーキテクチャは、継続的なオンライン学習を通じて異なる身体のバリエーションに関する学習された運動基準を使用できるとともに、壊滅的な忘れを防ぎ、ヒューマノイドロボットとの長期間の人間とロボットの相互作用を可能にします。
関連論文リスト
- Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - CARPE-ID: Continuously Adaptable Re-identification for Personalized
Robot Assistance [16.948256303861022]
今日のHuman-Robot Interaction(HRI)のシナリオでは、ロボットが最も近い個人と協力する必要があると仮定する傾向が一般的である。
連続的な視覚適応技術に基づく人物識別モジュールを提案する。
実験室環境におけるビデオ記録と,移動ロボットによるHRIシナリオを用いて,このフレームワークを単体でテストする。
論文 参考訳(メタデータ) (2023-10-30T10:24:21Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Skeleton2Humanoid: Animating Simulated Characters for
Physically-plausible Motion In-betweening [59.88594294676711]
現代の深層学習に基づく運動合成アプローチは、合成された運動の物理的妥当性をほとんど考慮していない。
テスト時に物理指向の動作補正を行うシステムSkeleton2Humanoid'を提案する。
挑戦的なLaFAN1データセットの実験は、物理的妥当性と精度の両方の観点から、我々のシステムが先行手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-09T16:15:34Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - Occlusion-Robust Multi-Sensory Posture Estimation in Physical
Human-Robot Interaction [10.063075560468798]
1台のカメラ上でのOpenPoseからの2D姿勢と、人間がタスクを実行している間に対話するロボットの軌道。
1台のカメラ上でのOpenPoseからの2D姿勢と、人間がタスクを実行している間に対話するロボットの軌道を利用する。
本研究は,OpenPoseのみを用いた姿勢推定や,ロボットの軌道のみを用いた姿勢推定よりも,人間の体力の冗長性を解消できることを示す。
論文 参考訳(メタデータ) (2022-08-12T20:41:09Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。