論文の概要: Prescient teleoperation of humanoid robots
- arxiv url: http://arxiv.org/abs/2107.01281v1
- Date: Fri, 2 Jul 2021 21:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 14:46:31.904524
- Title: Prescient teleoperation of humanoid robots
- Title(参考訳): ヒューマノイドロボットの先天的遠隔操作
- Authors: Luigi Penco, Jean-Baptiste Mouret, Serena Ivaldi
- Abstract要約: 本研究では,ヒューマノイドロボットが実際に受信する前にコマンドを実行するシステムを提案する。
ロボットは機械学習モデルに問い合わせることで、将来的なコマンドを継続的に予測する。
オペレーターは、複数の全身操作タスクで最大2秒の遅延でヒューマノイドロボットをうまく制御することができた。
- 参考スコア(独自算出の注目度): 6.230751621285322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humanoid robots could be versatile and intuitive human avatars that operate
remotely in inaccessible places: the robot could reproduce in the remote
location the movements of an operator equipped with a wearable motion capture
device while sending visual feedback to the operator. While substantial
progress has been made on transferring ("retargeting") human motions to
humanoid robots, a major problem preventing the deployment of such systems in
real applications is the presence of communication delays between the human
input and the feedback from the robot: even a few hundred milliseconds of delay
can irreversibly disturb the operator, let alone a few seconds. To overcome
these delays, we introduce a system in which a humanoid robot executes commands
before it actually receives them, so that the visual feedback appears to be
synchronized to the operator, whereas the robot executed the commands in the
past. To do so, the robot continuously predicts future commands by querying a
machine learning model that is trained on past trajectories and conditioned on
the last received commands. In our experiments, an operator was able to
successfully control a humanoid robot (32 degrees of freedom) with stochastic
delays up to 2 seconds in several whole-body manipulation tasks, including
reaching different targets, picking up, and placing a box at distinct
locations.
- Abstract(参考訳): 人間型ロボットは、操作者に視覚フィードバックを送りながら、ウェアラブルモーションキャプチャ装置を装備した操作者の動きを遠隔地で再現することができる。
人間の動作(再ターゲット)をヒューマノイドロボットに転送する大きな進歩があったが、そのようなシステムが実際の応用に配備されるのを防ぐ主要な問題は、人間の入力とロボットからのフィードバックの間の通信遅延の存在である。
これらの遅延を克服するために、ヒューマノイドロボットが実際にコマンドを受け取る前にコマンドを実行するシステムを導入し、視覚フィードバックがオペレータに同期するようにし、ロボットは過去にコマンドを実行した。
そのためロボットは、過去の軌道で訓練され、最後に受信したコマンドで条件付けられた機械学習モデルをクエリすることで、将来のコマンドを継続的に予測する。
私たちの実験では、オペレーターがヒューマノイドロボット(32度自由度)を、複数の身体操作タスクで最大2秒の確率的遅延で制御することに成功しました。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans
on Youtube [24.530131506065164]
我々は、人間なら誰でもロボットの手と腕を制御できるシステムを構築します。
ロボットは、人間のオペレーターを1台のRGBカメラで観察し、その動作をリアルタイムで模倣する。
我々はこのデータを利用して、人間の手を理解するシステムを訓練し、人間のビデオストリームをスムーズで、素早く、安全に、意味論的に誘導デモに類似したロボットのハンドアーム軌道に再ターゲティングする。
論文 参考訳(メタデータ) (2022-02-21T18:59:59Z) - Know Thyself: Transferable Visuomotor Control Through Robot-Awareness [22.405839096833937]
新しいロボットをスクラッチからトレーニングするためには、通常大量のロボット固有のデータを生成する必要がある。
簡単なロボット「自己認識」を活用する「ロボット認識」ソリューションパラダイムを提案する。
シミュレーションおよび実際のロボットにおけるテーブルトップ操作に関する実験により、これらのプラグインの改善により、ビジュモータコントローラの転送性が劇的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-19T17:56:04Z) - Target Reaching Behaviour for Unfreezing the Robot in a Semi-Static and
Crowded Environment [2.055949720959582]
本研究では,人間の存在により凍結したロボットの進路をクリアする社会規範に不満を呈する車輪付きヒューマノイドロボットに対して,ロボットの動作を提案する。
1)人間の手や腕を検知するヨロv3アルゴリズムを用いた検出モジュール,2)近似ポリシー最適化アルゴリズムを用いたシミュレーションで訓練されたポリシーを利用するジェスチャーモジュール,の2つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-12-02T13:43:59Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。