論文の概要: Put the Bear on the Chair! Intelligent Robot Interaction with Previously
Unseen Objects via Robot Imagination
- arxiv url: http://arxiv.org/abs/2108.05539v1
- Date: Thu, 12 Aug 2021 05:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:26:38.527290
- Title: Put the Bear on the Chair! Intelligent Robot Interaction with Previously
Unseen Objects via Robot Imagination
- Title(参考訳): 熊を椅子に乗せろ!
ロボットイマジネーションによる従来の見えない物体との知能ロボットインタラクション
- Authors: Hongtao Wu, Xin Meng, Sipu Ruan, Gregory Chirikjian
- Abstract要約: 我々は、テディベアを以前に見えない椅子に着座させるという課題を、自律的に検討した。
椅子に座る仮想ヒューマノイドエージェントを物理的にシミュレートすることで、熊の座るポーズをロボットが想像する新しい方法を提案する。
また、運動計画を利用して、人間型ロボットが椅子に歩けるようSE(2)の動きを計画し、熊を乗せる全身の動きを計画するロボットシステムを開発した。
- 参考スコア(独自算出の注目度): 9.955202274364119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this letter, we study the problem of autonomously placing a teddy bear on
a previously unseen chair for sitting. To achieve this goal, we present a novel
method for robots to imagine the sitting pose of the bear by physically
simulating a virtual humanoid agent sitting on the chair. We also develop a
robotic system which leverages motion planning to plan SE(2) motions for a
humanoid robot to walk to the chair and whole-body motions to put the bear on
it, respectively. Furthermore, to cope with the cases where the chair is not in
an accessible pose for placing the bear, a human-robot interaction (HRI)
framework is introduced in which a human follows language instructions given by
the robot to rotate the chair and help make the chair accessible. We implement
our method with a robot arm and a humanoid robot. We calibrate the proposed
system with 3 chairs and test on 12 previously unseen chairs in both accessible
and inaccessible poses extensively. Results show that our method enables the
robot to autonomously put the teddy bear on the 12 unseen chairs with a very
high success rate. The HRI framework is also shown to be very effective in
changing the accessibility of the chair. Source code will be available. Video
demos are available at https://chirikjianlab.github.io/putbearonchair/.
- Abstract(参考訳): 本稿では,テディベアをそれまで目に見えない椅子に自律的に設置する問題について検討する。
この目的を達成するために、椅子に座っている仮想ヒューマノイドエージェントを物理的にシミュレートすることで、クマの座るポーズをロボットが想像する新しい方法を提案する。
また、運動計画を利用して、人間型ロボットが椅子に歩けるようSE(2)運動を計画し、その上に熊を乗せる全身運動を計画するロボットシステムを開発した。
さらに、椅子がクマを配置するためのアクセス可能な姿勢になっていない場合に対処するために、人間がロボットが椅子を回転させ、椅子をアクセスしやすくするための言語指示に従う、人間とロボットの相互作用(hri)フレームワークを導入する。
我々はロボットアームとヒューマノイドロボットを用いて本手法を実装した。
提案するシステムを3つの椅子で校正し,未発見の12の椅子に広く適用可能なポーズとアクセス不能なポーズでテストを行う。
その結果,ロボットがテディベアを12個の目立たずの椅子に自律的に設置し,成功率が高いことがわかった。
HRIフレームワークは椅子のアクセシビリティを変更するのに非常に効果的であることも示されている。
ソースコードは利用可能である。
ビデオデモはhttps://chirikjianlab.github.io/putbearonchair/で見ることができる。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - HumanPlus: Humanoid Shadowing and Imitation from Humans [82.47551890765202]
ヒューマノイドが人間のデータから動きや自律的なスキルを学ぶためのフルスタックシステムを導入する。
まず、既存の40時間動作データセットを用いて、強化学習によるシミュレーションの低レベルポリシーを訓練する。
次に、自己中心型視覚を用いてスキルポリシーを訓練し、ヒューマノイドが自律的に異なるタスクを完了できるようにする。
論文 参考訳(メタデータ) (2024-06-15T00:41:34Z) - Learning Visual Quadrupedal Loco-Manipulation from Demonstrations [36.1894630015056]
我々は四足歩行ロボットに、足だけを使って現実世界の操作タスクを実行させることを目標としている。
我々はロコ操作プロセスを低レベル強化学習(RL)ベースのコントローラと高レベル行動クローン(BC)ベースのプランナに分解する。
提案手法はシミュレーションや実世界の実験を通じて検証され,移動性や高精度なタスクをロボットが実行できることが実証された。
論文 参考訳(メタデータ) (2024-03-29T17:59:05Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Pedipulate: Enabling Manipulation Skills using a Quadruped Robot's Leg [11.129918951736052]
脚のついたロボットは、メンテナンス、ホームサポート、探索のシナリオにおいて不可欠になる可能性がある。
本研究では,ロボットの脚を操作に用いたペディピュレーションについて検討する。
論文 参考訳(メタデータ) (2024-02-16T17:20:45Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - DayDreamer: World Models for Physical Robot Learning [142.11031132529524]
深層強化学習はロボット学習の一般的なアプローチであるが、学習するには大量の試行錯誤が必要となる。
ロボット学習の多くの進歩はシミュレータに依存している。
本稿では,Dreamerを4つのロボットに適用し,シミュレータを使わずに,オンラインおよび実世界で直接学習する。
論文 参考訳(メタデータ) (2022-06-28T17:44:48Z) - Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans
on Youtube [24.530131506065164]
我々は、人間なら誰でもロボットの手と腕を制御できるシステムを構築します。
ロボットは、人間のオペレーターを1台のRGBカメラで観察し、その動作をリアルタイムで模倣する。
我々はこのデータを利用して、人間の手を理解するシステムを訓練し、人間のビデオストリームをスムーズで、素早く、安全に、意味論的に誘導デモに類似したロボットのハンドアーム軌道に再ターゲティングする。
論文 参考訳(メタデータ) (2022-02-21T18:59:59Z) - Know Thyself: Transferable Visuomotor Control Through Robot-Awareness [22.405839096833937]
新しいロボットをスクラッチからトレーニングするためには、通常大量のロボット固有のデータを生成する必要がある。
簡単なロボット「自己認識」を活用する「ロボット認識」ソリューションパラダイムを提案する。
シミュレーションおよび実際のロボットにおけるテーブルトップ操作に関する実験により、これらのプラグインの改善により、ビジュモータコントローラの転送性が劇的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-19T17:56:04Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z) - I can attend a meeting too! Towards a human-like telepresence avatar
robot to attend meeting on your behalf [8.512048419752047]
遠隔会議に参加することができるテレプレゼンスロボットに焦点をあてる。
より優れた会議体験を実現するため、ロボットは話者をローカライズし、話者を視角の中央に持ってくる必要がある。
本稿では,テレプレゼンス会議シナリオにおけるアテンションシフト方式の検討と実装について述べる。
論文 参考訳(メタデータ) (2020-06-28T16:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。