論文の概要: Put the Bear on the Chair! Intelligent Robot Interaction with Previously
Unseen Objects via Robot Imagination
- arxiv url: http://arxiv.org/abs/2108.05539v1
- Date: Thu, 12 Aug 2021 05:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:26:38.527290
- Title: Put the Bear on the Chair! Intelligent Robot Interaction with Previously
Unseen Objects via Robot Imagination
- Title(参考訳): 熊を椅子に乗せろ!
ロボットイマジネーションによる従来の見えない物体との知能ロボットインタラクション
- Authors: Hongtao Wu, Xin Meng, Sipu Ruan, Gregory Chirikjian
- Abstract要約: 我々は、テディベアを以前に見えない椅子に着座させるという課題を、自律的に検討した。
椅子に座る仮想ヒューマノイドエージェントを物理的にシミュレートすることで、熊の座るポーズをロボットが想像する新しい方法を提案する。
また、運動計画を利用して、人間型ロボットが椅子に歩けるようSE(2)の動きを計画し、熊を乗せる全身の動きを計画するロボットシステムを開発した。
- 参考スコア(独自算出の注目度): 9.955202274364119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this letter, we study the problem of autonomously placing a teddy bear on
a previously unseen chair for sitting. To achieve this goal, we present a novel
method for robots to imagine the sitting pose of the bear by physically
simulating a virtual humanoid agent sitting on the chair. We also develop a
robotic system which leverages motion planning to plan SE(2) motions for a
humanoid robot to walk to the chair and whole-body motions to put the bear on
it, respectively. Furthermore, to cope with the cases where the chair is not in
an accessible pose for placing the bear, a human-robot interaction (HRI)
framework is introduced in which a human follows language instructions given by
the robot to rotate the chair and help make the chair accessible. We implement
our method with a robot arm and a humanoid robot. We calibrate the proposed
system with 3 chairs and test on 12 previously unseen chairs in both accessible
and inaccessible poses extensively. Results show that our method enables the
robot to autonomously put the teddy bear on the 12 unseen chairs with a very
high success rate. The HRI framework is also shown to be very effective in
changing the accessibility of the chair. Source code will be available. Video
demos are available at https://chirikjianlab.github.io/putbearonchair/.
- Abstract(参考訳): 本稿では,テディベアをそれまで目に見えない椅子に自律的に設置する問題について検討する。
この目的を達成するために、椅子に座っている仮想ヒューマノイドエージェントを物理的にシミュレートすることで、クマの座るポーズをロボットが想像する新しい方法を提案する。
また、運動計画を利用して、人間型ロボットが椅子に歩けるようSE(2)運動を計画し、その上に熊を乗せる全身運動を計画するロボットシステムを開発した。
さらに、椅子がクマを配置するためのアクセス可能な姿勢になっていない場合に対処するために、人間がロボットが椅子を回転させ、椅子をアクセスしやすくするための言語指示に従う、人間とロボットの相互作用(hri)フレームワークを導入する。
我々はロボットアームとヒューマノイドロボットを用いて本手法を実装した。
提案するシステムを3つの椅子で校正し,未発見の12の椅子に広く適用可能なポーズとアクセス不能なポーズでテストを行う。
その結果,ロボットがテディベアを12個の目立たずの椅子に自律的に設置し,成功率が高いことがわかった。
HRIフレームワークは椅子のアクセシビリティを変更するのに非常に効果的であることも示されている。
ソースコードは利用可能である。
ビデオデモはhttps://chirikjianlab.github.io/putbearonchair/で見ることができる。
関連論文リスト
- Pedipulate: Enabling Manipulation Skills using a Quadruped Robot's Leg [11.129918951736052]
脚のついたロボットは、メンテナンス、ホームサポート、探索のシナリオにおいて不可欠になる可能性がある。
本研究では,ロボットの脚を操作に用いたペディピュレーションについて検討する。
論文 参考訳(メタデータ) (2024-02-16T17:20:45Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - DayDreamer: World Models for Physical Robot Learning [142.11031132529524]
深層強化学習はロボット学習の一般的なアプローチであるが、学習するには大量の試行錯誤が必要となる。
ロボット学習の多くの進歩はシミュレータに依存している。
本稿では,Dreamerを4つのロボットに適用し,シミュレータを使わずに,オンラインおよび実世界で直接学習する。
論文 参考訳(メタデータ) (2022-06-28T17:44:48Z) - Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans
on Youtube [24.530131506065164]
我々は、人間なら誰でもロボットの手と腕を制御できるシステムを構築します。
ロボットは、人間のオペレーターを1台のRGBカメラで観察し、その動作をリアルタイムで模倣する。
我々はこのデータを利用して、人間の手を理解するシステムを訓練し、人間のビデオストリームをスムーズで、素早く、安全に、意味論的に誘導デモに類似したロボットのハンドアーム軌道に再ターゲティングする。
論文 参考訳(メタデータ) (2022-02-21T18:59:59Z) - Know Thyself: Transferable Visuomotor Control Through Robot-Awareness [22.405839096833937]
新しいロボットをスクラッチからトレーニングするためには、通常大量のロボット固有のデータを生成する必要がある。
簡単なロボット「自己認識」を活用する「ロボット認識」ソリューションパラダイムを提案する。
シミュレーションおよび実際のロボットにおけるテーブルトップ操作に関する実験により、これらのプラグインの改善により、ビジュモータコントローラの転送性が劇的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-19T17:56:04Z) - Learning Locomotion Skills in Evolvable Robots [10.167123492952694]
本稿では,任意の形状のモジュール型ロボットが目標に向かって歩いたり,移動した場合にこの目標に従うことを学習できるようにするための,コントローラアーキテクチャと汎用学習手法を提案する。
我々のアプローチは、現実世界の3つのシナリオにおいて、クモ、ヤモリ、そしてその子孫の3つのロボットに対して検証されている。
論文 参考訳(メタデータ) (2020-10-19T14:01:50Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z) - I can attend a meeting too! Towards a human-like telepresence avatar
robot to attend meeting on your behalf [8.512048419752047]
遠隔会議に参加することができるテレプレゼンスロボットに焦点をあてる。
より優れた会議体験を実現するため、ロボットは話者をローカライズし、話者を視角の中央に持ってくる必要がある。
本稿では,テレプレゼンス会議シナリオにおけるアテンションシフト方式の検討と実装について述べる。
論文 参考訳(メタデータ) (2020-06-28T16:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。