論文の概要: Adaptive Mobile Manipulation for Articulated Objects In the Open World
- arxiv url: http://arxiv.org/abs/2401.14403v2
- Date: Sun, 28 Jan 2024 18:58:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 11:30:05.962807
- Title: Adaptive Mobile Manipulation for Articulated Objects In the Open World
- Title(参考訳): オープンワールドにおける人工物体の適応的移動操作
- Authors: Haoyu Xiong, Russell Mendonca, Kenneth Shaw, Deepak Pathak
- Abstract要約: リアルな調音オブジェクト操作に対処するために,オープンワールド移動操作システムを導入する。
このシステムは、BCの50%の事前トレーニングから、オンライン適応を使用して95%まで、成功率を高めることができる。
- 参考スコア(独自算出の注目度): 37.34288363863099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying robots in open-ended unstructured environments such as homes has
been a long-standing research problem. However, robots are often studied only
in closed-off lab settings, and prior mobile manipulation work is restricted to
pick-move-place, which is arguably just the tip of the iceberg in this area. In
this paper, we introduce Open-World Mobile Manipulation System, a full-stack
approach to tackle realistic articulated object operation, e.g. real-world
doors, cabinets, drawers, and refrigerators in open-ended unstructured
environments. The robot utilizes an adaptive learning framework to initially
learns from a small set of data through behavior cloning, followed by learning
from online practice on novel objects that fall outside the training
distribution. We also develop a low-cost mobile manipulation hardware platform
capable of safe and autonomous online adaptation in unstructured environments
with a cost of around 20,000 USD. In our experiments we utilize 20 articulate
objects across 4 buildings in the CMU campus. With less than an hour of online
learning for each object, the system is able to increase success rate from 50%
of BC pre-training to 95% using online adaptation. Video results at
https://open-world-mobilemanip.github.io/
- Abstract(参考訳): 家庭などのオープンな非構造環境にロボットを配置することは、長年にわたる研究課題だった。
しかし、ロボットは、しばしばクローズオフラボでのみ研究されており、以前の移動操作は、おそらくこの地域の氷山の一角であるピック・モブ・プレイスに制限されている。
本稿では, 実世界のドア, キャビネット, 引き出し, 冷蔵庫など, 現実的なオブジェクト操作を実現するためのフルスタックアプローチであるOpen-World Mobile Manipulation Systemを紹介する。
このロボットは、適応的な学習フレームワークを使用して、まず行動クローニングを通じて小さなデータ集合から学習し、続いてトレーニング分布外にある新しいオブジェクトについてオンラインの実践から学習する。
また、安全かつ自律的なオンライン適応が可能な低コストなモバイル操作ハードウェアプラットフォームを、約20,000USドルで開発しています。
実験では,CMUキャンパスの4つの建物にまたがる20個の明瞭な物体を用いた。
各オブジェクトに対する1時間未満のオンライン学習で、システムは、オンライン適応を用いて、bcプリトレーニングの50%から95%に成功率を上げることができる。
ビデオ結果: https://open-world-mobilemanip.github.io/
関連論文リスト
- Helpful DoggyBot: Open-World Object Fetching using Legged Robots and Vision-Language Models [63.89598561397856]
室内環境における四足歩行操作のためのシステムを提案する。
オブジェクト操作にはフロントマウントのグリップを使用しており、アジャイルスキルにエゴセントリックな深さを使ってシミュレーションでトレーニングされた低レベルのコントローラである。
実世界のデータ収集やトレーニングを行なわずに、2つの目に見えない環境でシステムを評価する。
論文 参考訳(メタデータ) (2024-09-30T20:58:38Z) - One Policy to Run Them All: an End-to-end Learning Approach to Multi-Embodiment Locomotion [18.556470359899855]
統一ロボット形態学アーキテクチャであるURMAを紹介する。
我々のフレームワークは、脚のあるロボットの領域にエンドツーエンドのマルチタスク強化学習アプローチをもたらす。
URMAはロボットプラットフォームに容易に移動可能な複数の実施形態の移動ポリシーを学習できることを示す。
論文 参考訳(メタデータ) (2024-09-10T09:44:15Z) - Robot Utility Models: General Policies for Zero-Shot Deployment in New Environments [26.66666135624716]
ゼロショットロボットポリシーのトレーニングとデプロイのためのフレームワークであるロボットユーティリティモデル(RUM)を提案する。
RUMは微調整なしで新しい環境に一般化できる。
キャビネットドアのオープン、引き出しのオープン、ナプキンのピックアップ、紙袋のピックアップ、転倒物の再配向の5つのユーティリティモデルを訓練する。
論文 参考訳(メタデータ) (2024-09-09T17:59:50Z) - Harmonic Mobile Manipulation [35.82197562695662]
HarmonicMMはナビゲーションと操作の両方を最適化するエンドツーエンドの学習手法である。
私たちのコントリビューションには、モバイル操作のための新しいベンチマークと、RGBの視覚的観察のみによるデプロイメントの成功が含まれています。
論文 参考訳(メタデータ) (2023-12-11T18:54:42Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Visual Navigation in Real-World Indoor Environments Using End-to-End
Deep Reinforcement Learning [2.7071541526963805]
そこで本研究では,実際のロボットにトレーニング済みポリシーを直接展開する手法を提案する。
このポリシーは、現実世界の環境から収集された画像に基づいて微調整される。
30回のナビゲーション実験では、このロボットは86.7%以上のケースで目標の0.3メートル付近に到達した。
論文 参考訳(メタデータ) (2020-10-21T11:22:30Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。