論文の概要: Make Bipedal Robots Learn How to Imitate
- arxiv url: http://arxiv.org/abs/2105.07193v1
- Date: Sat, 15 May 2021 10:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 10:16:25.957947
- Title: Make Bipedal Robots Learn How to Imitate
- Title(参考訳): 二足歩行ロボットを模倣する方法を学ぶ
- Authors: Vishal Kumar and Sinnu Susan Thomas
- Abstract要約: 模倣学習(il)の助けを借りて,二足歩行ロボットの基本的な動作を訓練する手法を提案する。
巧みに書かれたディープqネットワーク(dqn)をexperience replayで訓練して、ロボットがインストラクターと同じように動きを学ばせるようにする。
- 参考スコア(独自算出の注目度): 3.1981440103815717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bipedal robots do not perform well as humans since they do not learn to walk
like we do. In this paper we propose a method to train a bipedal robot to
perform some basic movements with the help of imitation learning (IL) in which
an instructor will perform the movement and the robot will try to mimic the
instructor movement. To the best of our knowledge, this is the first time we
train the robot to perform movements with a single video of the instructor and
as the training is done based on joint angles the robot will keep its joint
angles always in physical limits which in return help in faster training. The
joints of the robot are identified by OpenPose architecture and then joint
angle data is extracted with the help of angle between three points resulting
in a noisy solution. We smooth the data using Savitzky-Golay filter and
preserve the Simulatore data anatomy. An ingeniously written Deep Q Network
(DQN) is trained with experience replay to make the robot learn to perform the
movements as similar as the instructor. The implementation of the paper is made
publicly available.
- Abstract(参考訳): 二足歩行ロボットは、人間のように歩くことを学ばないので、人間に劣る。
本稿では,インストラクタが動作し,ロボットがインストラクタの動きを模倣しようとする模倣学習(il)の助けを借りて,二足歩行ロボットの基本的な動作を訓練する手法を提案する。
私たちの知る限りでは、ロボットがインストラクターの1つのビデオで動きを訓練するのはこれが初めてであり、訓練が関節角度に基づいて行われるため、ロボットは関節角度を常に物理的限界に保ち、より高速なトレーニングに役立てることができる。
ロボットの関節はOpenPoseアーキテクチャで識別され、次いで3点間の角度の助けを借りて関節角データを抽出し、ノイズのある解を得る。
savitzky-golayフィルタを用いてデータをスムースにし,シミュレータデータ解剖を保存した。
巧みに書かれたディープqネットワーク(dqn)をexperience replayで訓練して、ロボットがインストラクターと同じように動きを学ばせるようにする。
論文の実装は公開されています。
関連論文リスト
- Vid2Robot: End-to-end Video-conditioned Policy Learning with Cross-Attention Transformers [36.497624484863785]
Vid2Robotは、人間のビデオで操作タスクを入力として表現し、ロボットアクションを生成する、エンドツーエンドのビデオ条件付きポリシーである。
我々のモデルは、ビデオから人間とロボットのアクションの統一表現を学習するために、プロンプトロボット軌道対の大規模なデータセットを用いて訓練されている。
実世界のロボット上でのVid2Robotの評価を行い、人間のプロンプトビデオを用いた場合、BC-Zよりも20%以上の改善が見られた。
論文 参考訳(メタデータ) (2024-03-19T17:47:37Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - ClipBot: an educational, physically impaired robot that learns to walk
via genetic algorithm optimization [0.0]
ClipBotは低コストで自作のロボットで、骨格は2枚の紙クリップでできている。
Arduinoナノコントローラは、紙のクリップを動かす2つのサーボモーターを作動させる。
高校生はロボットの動きを最適化する遺伝的アルゴリズムの実装を依頼された。
論文 参考訳(メタデータ) (2022-10-26T13:31:43Z) - Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans
on Youtube [24.530131506065164]
我々は、人間なら誰でもロボットの手と腕を制御できるシステムを構築します。
ロボットは、人間のオペレーターを1台のRGBカメラで観察し、その動作をリアルタイムで模倣する。
我々はこのデータを利用して、人間の手を理解するシステムを訓練し、人間のビデオストリームをスムーズで、素早く、安全に、意味論的に誘導デモに類似したロボットのハンドアーム軌道に再ターゲティングする。
論文 参考訳(メタデータ) (2022-02-21T18:59:59Z) - Adaptation of Quadruped Robot Locomotion with Meta-Learning [64.71260357476602]
本研究では,多岐にわたる移動課題を解くロボットの訓練にメタ強化学習を用いることを実証する。
メタトレーニングロボットのパフォーマンスは、単一のタスクでトレーニングされたロボットと似ている。
論文 参考訳(メタデータ) (2021-07-08T10:37:18Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - PPMC RL Training Algorithm: Rough Terrain Intelligent Robots through
Reinforcement Learning [4.314956204483074]
本稿では,任意のロボットに対して,粗い環境で一般化されたPPMCを指導する汎用的なトレーニングアルゴリズムを提案する。
我々は,ロボットが新しい地形マップに一般化することを学習し,100%の成功率を維持する実験を通して示す。
我々の知る限りでは、どんなロボットにも、粗い環境で一般化PPMCを教える汎用的なトレーニングアルゴリズムを導入する最初の論文である。
論文 参考訳(メタデータ) (2020-03-02T10:14:52Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。