論文の概要: Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost
Whole-Body Teleoperation
- arxiv url: http://arxiv.org/abs/2401.02117v1
- Date: Thu, 4 Jan 2024 07:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 15:44:53.416491
- Title: Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost
Whole-Body Teleoperation
- Title(参考訳): モバイルALOHA:低コスト全体遠隔操作によるバイマニピュレーション学習
- Authors: Zipeng Fu, Tony Z. Zhao, Chelsea Finn
- Abstract要約: 本研究では,バイマン的かつ全身制御を必要とするモバイル操作タスクを模倣するシステムを開発した。
Mobile ALOHAは、データ収集のための低コストで全身的な遠隔操作システムである。
共同トレーニングは成功率を最大90%向上させ、モバイルALOHAが自律的に複雑なモバイル操作タスクを完了できるようにする。
- 参考スコア(独自算出の注目度): 59.21899709023333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation learning from human demonstrations has shown impressive performance
in robotics. However, most results focus on table-top manipulation, lacking the
mobility and dexterity necessary for generally useful tasks. In this work, we
develop a system for imitating mobile manipulation tasks that are bimanual and
require whole-body control. We first present Mobile ALOHA, a low-cost and
whole-body teleoperation system for data collection. It augments the ALOHA
system with a mobile base, and a whole-body teleoperation interface. Using data
collected with Mobile ALOHA, we then perform supervised behavior cloning and
find that co-training with existing static ALOHA datasets boosts performance on
mobile manipulation tasks. With 50 demonstrations for each task, co-training
can increase success rates by up to 90%, allowing Mobile ALOHA to autonomously
complete complex mobile manipulation tasks such as sauteing and serving a piece
of shrimp, opening a two-door wall cabinet to store heavy cooking pots, calling
and entering an elevator, and lightly rinsing a used pan using a kitchen
faucet. Project website: https://mobile-aloha.github.io
- Abstract(参考訳): 人間のデモから学ぶ模倣は、ロボティクスで印象的なパフォーマンスを示している。
しかし、ほとんどの結果はテーブルトップ操作に焦点を合わせ、一般的に有用なタスクに必要なモビリティとデクタリティを欠いている。
本研究では,バイマン的かつ全身制御を必要とするモバイル操作タスクを模倣するシステムを開発する。
まず,データ収集のための低コスト全体遠隔操作システムMobile ALOHAを提案する。
ALOHAシステムはモバイルベースと全身の遠隔操作インタフェースで拡張されている。
モバイル aloha で収集したデータを用いて教師付き動作のクローニングを行い,既存の静的 aloha データセットとの共同トレーニングによってモバイル操作タスクのパフォーマンスが向上することを示す。
タスク毎に50のデモを行うと、コトレーニングは成功率を最大90%向上させ、モバイルALOHAは、吐き気やエビなどの複雑なモバイル操作タスクを自律的に完了し、2ドアの壁のキャビネットを開き、重い調理鍋を保管し、エレベーターを呼び込み、キッチンの蛇口を使って使用済みの鍋を軽く洗うことができる。
プロジェクトサイト: https://mobile-aloha.github.io
関連論文リスト
- BUMBLE: Unifying Reasoning and Acting with Vision-Language Models for Building-wide Mobile Manipulation [36.21945470191491]
本稿では,オープンワールドなRGBD認識,広帯域の極小運動技術,二重層メモリを統合した統合ビジョン・ランゲージ・モデル(VLM)ベースのフレームワークであるBUMBLEを紹介する。
BUMBLEは、異なる部屋やフロアから70以上の試験、タスク、シーンレイアウトを平均47.1%の成功率で達成している。
論文 参考訳(メタデータ) (2024-10-08T17:52:29Z) - Zero-Cost Whole-Body Teleoperation for Mobile Manipulation [8.71539730969424]
MoMa-Teleopは、ベースモーションを強化学習エージェントに委譲する新しい遠隔操作手法である。
提案手法は,様々なロボットやタスクに対して,タスク完了時間が大幅に短縮されることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:09:45Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Mobile-Agent-v2: Mobile Device Operation Assistant with Effective Navigation via Multi-Agent Collaboration [52.25473993987409]
モバイルデバイス操作支援のためのマルチエージェントアーキテクチャであるMobile-Agent-v2を提案する。
アーキテクチャは、計画エージェント、決定エージェント、反射エージェントの3つのエージェントから構成される。
単一エージェントアーキテクチャと比較して,Mobile-Agent-v2ではタスク完了率が30%以上向上していることを示す。
論文 参考訳(メタデータ) (2024-06-03T05:50:00Z) - TeleMoMa: A Modular and Versatile Teleoperation System for Mobile Manipulation [38.187217710937084]
本研究では,移動マニピュレータの全身遠隔操作のための汎用・モジュールインタフェースであるTeleMoMaを実演する。
TeleMoMaは、RGBとディープカメラ、バーチャルリアリティコントローラ、キーボード、ジョイスティックなど、複数のヒューマンインターフェースを統合する。
論文 参考訳(メタデータ) (2024-03-12T17:58:01Z) - Mobile-Agent: Autonomous Multi-Modal Mobile Device Agent with Visual Perception [52.5831204440714]
自律型マルチモーダルモバイルデバイスエージェントMobile-Agentを紹介する。
Mobile-Agentはまず視覚認識ツールを利用して、アプリのフロントエンドインターフェイス内の視覚的要素とテキスト的要素の両方を正確に識別し、特定する。
そして、複雑なオペレーションタスクを自律的に計画し、分解し、ステップバイステップでモバイルアプリをナビゲートする。
論文 参考訳(メタデータ) (2024-01-29T13:46:37Z) - Human-in-the-Loop Task and Motion Planning for Imitation Learning [37.75197145733193]
人間のデモからの模倣学習は、ロボットに複雑な操作スキルを教えることができるが、時間がかかり労働が集中している。
対照的に、タスク・アンド・モーション・プランニング(TAMP)システムは自動化されており、長距離タスクの解決に優れています。
両アプローチの利点を生かした新しいシステムであるHuman-in-the-Loop Task and Motion Planning (HITL-TAMP)を提案する。
論文 参考訳(メタデータ) (2023-10-24T17:15:16Z) - Error-Aware Imitation Learning from Teleoperation Data for Mobile
Manipulation [54.31414116478024]
移動操作(MM)では、ロボットは環境内を移動して操作することができる。
本研究では,MMタスクに対する連続的なビジュオモダポリシの学習に模倣学習(IL)を適用する方法について検討する。
論文 参考訳(メタデータ) (2021-12-09T23:54:59Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。