論文の概要: Learning by Watching: Physical Imitation of Manipulation Skills from
Human Videos
- arxiv url: http://arxiv.org/abs/2101.07241v1
- Date: Mon, 18 Jan 2021 18:50:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 09:01:24.084390
- Title: Learning by Watching: Physical Imitation of Manipulation Skills from
Human Videos
- Title(参考訳): 観察による学習:人間ビデオからの操作スキルの物理的模倣
- Authors: Haoyu Xiong, Quanzhou Li, Yun-Chun Chen, Homanga Bharadhwaj, Samarth
Sinha, Animesh Garg
- Abstract要約: 本稿では,ロボット操作作業のための人間ビデオからの物理模倣手法を提案する。
人間のビデオをロボットドメインに翻訳し,教師なしのキーポイント検出を行う知覚モジュールを設計した。
リーチ、プッシュ、スライディング、コーヒー製造、引き出しの閉鎖を含む5つのロボット操作タスクに対するアプローチの有効性を評価します。
- 参考スコア(独自算出の注目度): 28.712673809577076
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present an approach for physical imitation from human videos for robot
manipulation tasks. The key idea of our method lies in explicitly exploiting
the kinematics and motion information embedded in the video to learn structured
representations that endow the robot with the ability to imagine how to perform
manipulation tasks in its own context. To achieve this, we design a perception
module that learns to translate human videos to the robot domain followed by
unsupervised keypoint detection. The resulting keypoint-based representations
provide semantically meaningful information that can be directly used for
reward computing and policy learning. We evaluate the effectiveness of our
approach on five robot manipulation tasks, including reaching, pushing,
sliding, coffee making, and drawer closing. Detailed experimental evaluations
demonstrate that our method performs favorably against previous approaches.
- Abstract(参考訳): 本稿では,ロボット操作作業のための人間ビデオからの物理模倣手法を提案する。
我々の手法の鍵となる考え方は、ビデオに埋め込まれた運動情報と運動情報を明示的に活用して、ロボットが自身のコンテキストで操作を行う方法を想像できる構造的表現を学ぶことである。
そこで我々は,人間の映像をロボット領域に翻訳し,教師なしのキーポイント検出を行う知覚モジュールを設計した。
得られたキーポイントに基づく表現は意味的に意味のある情報を提供し、報酬計算やポリシー学習に直接利用できる。
提案手法は, ロボット操作作業において, リーチ, 押圧, スライディング, コーヒーメイキング, 引き出しクローズの5つの課題に対して有効性を評価する。
詳細な実験評価の結果,従来の手法に好適な効果を示した。
関連論文リスト
- Learning by Watching: A Review of Video-based Learning Approaches for
Robot Manipulation [0.0]
最近の研究は、オンラインで公開されている豊富な動画を受動的に視聴することで、学習操作のスキルを探求している。
本調査では,映像特徴表現学習技術,物価理解,3次元ハンド・ボディ・モデリング,大規模ロボット資源などの基礎を概観する。
ロボット操作の一般化とサンプル効率を高めるために,大規模な人的映像を観察することのみから学習する方法を論じる。
論文 参考訳(メタデータ) (2024-02-11T08:41:42Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。