論文の概要: Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware
- arxiv url: http://arxiv.org/abs/2304.13705v1
- Date: Sun, 23 Apr 2023 19:10:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 13:23:37.165087
- Title: Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware
- Title(参考訳): 低コストハードウェアによる細粒二面マニピュレーションの学習
- Authors: Tony Z. Zhao, Vikash Kumar, Sergey Levine, Chelsea Finn
- Abstract要約: ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、ロボットにとって非常に難しい。
本稿では,実演からエンド・ツー・エンドの模倣学習を行う低コストシステムを提案する。
本研究では, 動作系列の生成モデルを学習する, 単純だが斬新なアルゴリズムであるAction Chunking with Transformersを開発した。
- 参考スコア(独自算出の注目度): 132.39281056124312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine manipulation tasks, such as threading cable ties or slotting a battery,
are notoriously difficult for robots because they require precision, careful
coordination of contact forces, and closed-loop visual feedback. Performing
these tasks typically requires high-end robots, accurate sensors, or careful
calibration, which can be expensive and difficult to set up. Can learning
enable low-cost and imprecise hardware to perform these fine manipulation
tasks? We present a low-cost system that performs end-to-end imitation learning
directly from real demonstrations, collected with a custom teleoperation
interface. Imitation learning, however, presents its own challenges,
particularly in high-precision domains: errors in the policy can compound over
time, and human demonstrations can be non-stationary. To address these
challenges, we develop a simple yet novel algorithm, Action Chunking with
Transformers (ACT), which learns a generative model over action sequences. ACT
allows the robot to learn 6 difficult tasks in the real world, such as opening
a translucent condiment cup and slotting a battery with 80-90% success, with
only 10 minutes worth of demonstrations. Project website:
https://tonyzhaozh.github.io/aloha/
- Abstract(参考訳): ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、正確さ、接触力の注意深い調整、閉ループ視覚フィードバックを必要とするため、ロボットにとって非常に難しい。
これらのタスクを実行するには、通常、ハイエンドロボット、正確なセンサー、または慎重に調整する必要がある。
学習は、低コストで不正確なハードウェアがこれらの細かい操作タスクを実行することができるか?
本稿では,実演から直接エンド・ツー・エンドの模倣学習を行う,低コストなシステムを提案する。
しかし、シミュレーション学習は、特に高精度な領域では、時間とともにポリシーのエラーが複雑化し、人間のデモは静止しない可能性があるという、独自の課題を提示している。
これらの課題に対処するために,動作系列の生成モデルを学習する単純な新しいアルゴリズムであるAction Chunking with Transformers (ACT) を開発した。
actは、半透明のコンディメントカップを開き、80~90%の成功率でバッテリーをスロットングするなど、現実世界で6つの難しいタスクを学習できる。
プロジェクトウェブサイト: https://tonyzhaozh.github.io/aloha/
関連論文リスト
- Zero-Cost Whole-Body Teleoperation for Mobile Manipulation [8.71539730969424]
MoMa-Teleopは、ベースモーションを強化学習エージェントに委譲する新しい遠隔操作手法である。
提案手法は,様々なロボットやタスクに対して,タスク完了時間が大幅に短縮されることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:09:45Z) - VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Learning Variable Compliance Control From a Few Demonstrations for Bimanual Robot with Haptic Feedback Teleoperation System [5.497832119577795]
厳格なロボットを使った、きめ細やかな、接触に富んだ操作は、ロボット工学において重要な課題である。
外部センサを介して力を制御することでこれらの問題を緩和するために、コンプライアンス制御スキームが導入されている。
Demonstrationsからの学習は直感的な代替手段であり、ロボットは観察された動作を通じて操作を学習できる。
論文 参考訳(メタデータ) (2024-06-21T09:03:37Z) - Harmonic Mobile Manipulation [35.82197562695662]
HarmonicMMはナビゲーションと操作の両方を最適化するエンドツーエンドの学習手法である。
私たちのコントリビューションには、モバイル操作のための新しいベンチマークと、RGBの視覚的観察のみによるデプロイメントの成功が含まれています。
論文 参考訳(メタデータ) (2023-12-11T18:54:42Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Dexterous Imitation Made Easy: A Learning-Based Framework for Efficient
Dexterous Manipulation [13.135013586592585]
DIME(Dexterous Made Easy)は、デクスタラスな操作のための新しい模倣学習フレームワークである。
DIMEは、人間のオペレーターを観察し、ロボットハンドを遠隔操作するために、単一のRGBカメラしか必要としない。
シミュレーションと実ロボットベンチマークの両方において、複雑な手動操作タスクを解くためにDIMEを使用できることを示す。
論文 参考訳(メタデータ) (2022-03-24T17:58:54Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Sim2Real for Peg-Hole Insertion with Eye-in-Hand Camera [58.720142291102135]
シミュレーションを用いてペグホール挿入問題を学習し,学習したモデルを実ロボットに転送する。
本稿では,RGB-Dとジョイント情報(プロレセプション)のみを取り入れたトランスファーポリシーが,実際のロボットに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-05-29T05:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。