論文の概要: On Bringing Robots Home
- arxiv url: http://arxiv.org/abs/2311.16098v1
- Date: Mon, 27 Nov 2023 18:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 13:39:38.560362
- Title: On Bringing Robots Home
- Title(参考訳): ロボットを家に持ち帰る
- Authors: Nur Muhammad Mahi Shafiullah and Anant Rai and Haritheja Etukuru and
Yiqian Liu and Ishan Misra and Soumith Chintala and Lerrel Pinto
- Abstract要約: Dobb-Eは、家庭内でロボット操作を学ぶための安価なシステムだ。
ユーザの5分で新しいタスクを学習して,その方法を示すことができるのです。
Dobb-Eは、市場に出回っているモバイルロボットStretchのタスクを確実に解決できる。
- 参考スコア(独自算出の注目度): 36.539328577771826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Throughout history, we have successfully integrated various machines into our
homes. Dishwashers, laundry machines, stand mixers, and robot vacuums are a few
recent examples. However, these machines excel at performing only a single task
effectively. The concept of a "generalist machine" in homes - a domestic
assistant that can adapt and learn from our needs, all while remaining
cost-effective - has long been a goal in robotics that has been steadily
pursued for decades. In this work, we initiate a large-scale effort towards
this goal by introducing Dobb-E, an affordable yet versatile general-purpose
system for learning robotic manipulation within household settings. Dobb-E can
learn a new task with only five minutes of a user showing it how to do it,
thanks to a demonstration collection tool ("The Stick") we built out of cheap
parts and iPhones. We use the Stick to collect 13 hours of data in 22 homes of
New York City, and train Home Pretrained Representations (HPR). Then, in a
novel home environment, with five minutes of demonstrations and fifteen minutes
of adapting the HPR model, we show that Dobb-E can reliably solve the task on
the Stretch, a mobile robot readily available on the market. Across roughly 30
days of experimentation in homes of New York City and surrounding areas, we
test our system in 10 homes, with a total of 109 tasks in different
environments, and finally achieve a success rate of 81%. Beyond success
percentages, our experiments reveal a plethora of unique challenges absent or
ignored in lab robotics. These range from effects of strong shadows, to
variable demonstration quality by non-expert users. With the hope of
accelerating research on home robots, and eventually seeing robot butlers in
every home, we open-source Dobb-E software stack and models, our data, and our
hardware designs at https://dobb-e.com
- Abstract(参考訳): 歴史上、我々は様々な機械を家庭に組み込むことに成功した。
食器洗い機、洗濯機、スタンドミキサー、ロボット掃除機などが最近の例である。
しかし、これらの機械は1つのタスクしか効果的に実行できない。
家庭における「ジェネラリストマシン」の概念は、コスト効率を保ちながら、我々のニーズに適応し学習できる家庭内アシスタントであり、長年着実に追求されてきたロボティクスの目標だった。
本研究では,家庭内でロボット操作を学習する汎用システムDobb-Eを導入することで,この目標に向けて大規模な取り組みを開始する。
dobb-eは、安価な部品とiphoneで作ったデモ収集ツール(the stick)のおかげで、ユーザの5分で新しいタスクを学習できる。
The Stickを使って、ニューヨーク市の22の家で13時間のデータを収集し、Home Pretrained Representations(HPR)を訓練します。
そして、新しい家庭環境において、5分間のデモンストレーションと15分間のhprモデルの適用により、dobb-eが市場に出回っている移動ロボットであるストレッチのタスクを確実に解決できることを実証する。
ニューヨーク市や周辺地域での約30日間の実験を通じて、私たちのシステムを10の家庭でテストし、合計109のタスクを異なる環境で実行し、最終的に81%の成功率を達成しました。
成功率以外にも、実験では、ラボロボティクスに欠けている、あるいは無視された、ユニークな課題が数多く見つかりました。
これらは、強いシャドウの影響から、非熟練ユーザによるさまざまなデモ品質まで様々である。
私たちは、ホームロボットの研究を加速し、最終的にはすべての家庭でロボットバトラーを見ることを期待して、dobb-eソフトウェアスタックとモデル、データ、ハードウェア設計をhttps://dobb-e.comでオープンソース化しました。
関連論文リスト
- RoboCasa: Large-Scale Simulation of Everyday Tasks for Generalist Robots [25.650235551519952]
本稿では,汎用ロボットを日常的に訓練するための大規模シミュレーションフレームワークであるRoboCasaを紹介する。
私たちは、150以上のオブジェクトカテゴリと数十の対話可能な家具とアプライアンスに対して、何千もの3Dアセットを提供しています。
本実験は, 大規模模倣学習のための合成ロボットデータを用いて, スケーリングの傾向を明らかにするものである。
論文 参考訳(メタデータ) (2024-06-04T17:41:31Z) - BEHAVIOR-1K: A Human-Centered, Embodied AI Benchmark with 1,000 Everyday Activities and Realistic Simulation [63.42591251500825]
本稿では,人間中心ロボットの総合シミュレーションベンチマークであるBEHAVIOR-1Kを提案する。
ひとつは、90以上のオブジェクトにリッチな物理的およびセマンティックな特性を付加した50のシーンで、1,000の日常的な活動を定義することである。
第二にOMNIGIBSONは、現実的な物理シミュレーションと剛体、変形可能な体、液体のレンダリングを通じてこれらの活動を支援する新しいシミュレーション環境である。
論文 参考訳(メタデータ) (2024-03-14T09:48:36Z) - MimicGen: A Data Generation System for Scalable Robot Learning using
Human Demonstrations [55.549956643032836]
MimicGenは、少数の人間のデモから大規模でリッチなデータセットを自動的に合成するシステムである。
ロボットエージェントは,この生成したデータセットを模倣学習により効果的に訓練し,長期的・高精度なタスクにおいて高い性能を達成することができることを示す。
論文 参考訳(メタデータ) (2023-10-26T17:17:31Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - RoboCat: A Self-Improving Generalist Agent for Robotic Manipulation [33.10577695383743]
ロボット操作のためのマルチタスク汎用エージェントRoboCatを提案する。
このデータは、シミュレートされた本物のロボットアームから、さまざまな観察とアクションのセットでモーターコントロールスキルの大規模なレパートリーにまたがる。
RoboCatでは、ゼロショットだけでなく、100-1000例のみを用いて適応することで、新しいタスクやロボットに一般化する能力を実証する。
論文 参考訳(メタデータ) (2023-06-20T17:35:20Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - Evaluating Continual Learning on a Home Robot [30.620205237707342]
そこで本研究では,現実の低コストなホームロボットにおいて,連続学習手法をどのように適用することができるかを示す。
本稿では,スキルライブラリを継続的に学習するSANERと,それを支援するバックボーンとしてABIPを提案する。
論文 参考訳(メタデータ) (2023-06-04T17:14:49Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。