論文の概要: Polybot: Training One Policy Across Robots While Embracing Variability
- arxiv url: http://arxiv.org/abs/2307.03719v1
- Date: Fri, 7 Jul 2023 17:21:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 11:40:37.598967
- Title: Polybot: Training One Policy Across Robots While Embracing Variability
- Title(参考訳): Polybot: 可変性を受け入れながら、ロボット間の1つのポリシーを訓練する
- Authors: Jonathan Yang, Dorsa Sadigh, Chelsea Finn
- Abstract要約: 複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
- 参考スコア(独自算出の注目度): 70.74462430582163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reusing large datasets is crucial to scale vision-based robotic manipulators
to everyday scenarios due to the high cost of collecting robotic datasets.
However, robotic platforms possess varying control schemes, camera viewpoints,
kinematic configurations, and end-effector morphologies, posing significant
challenges when transferring manipulation skills from one platform to another.
To tackle this problem, we propose a set of key design decisions to train a
single policy for deployment on multiple robotic platforms. Our framework first
aligns the observation and action spaces of our policy across embodiments via
utilizing wrist cameras and a unified, but modular codebase. To bridge the
remaining domain shift, we align our policy's internal representations across
embodiments through contrastive learning. We evaluate our method on a dataset
collected over 60 hours spanning 6 tasks and 3 robots with varying joint
configurations and sizes: the WidowX 250S, the Franka Emika Panda, and the
Sawyer. Our results demonstrate significant improvements in success rate and
sample efficiency for our policy when using new task data collected on a
different robot, validating our proposed design decisions. More details and
videos can be found on our anonymized project website:
https://sites.google.com/view/polybot-multirobot
- Abstract(参考訳): 大規模なデータセットの再利用は、ロボットデータセットの収集コストが高いため、ビジョンベースのロボットマニピュレータを日々のシナリオにスケールするために不可欠である。
しかし、ロボットプラットフォームは、様々な制御スキーム、カメラ視点、運動的構成、およびエンドエフェクタ形態を有しており、操作スキルをプラットフォームから他のプラットフォームに移す際に重大な課題となっている。
この問題に対処するために、複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
我々のフレームワークは、まず、手首カメラと統一されたモジュール化されたコードベースを利用することで、私たちのポリシーの観察空間と行動空間を実施できる。
残りのドメインシフトを橋渡しするため、我々は対照学習を通じて、ポリシーの内部表現を具体化します。
提案手法は,WidowX 250S,Franka Emika Panda,Sawyerの6つのタスクと3つのロボットからなる60時間以上のデータセットを用いて評価した。
その結果、異なるロボットで収集したタスクデータを用いて、提案した設計決定を検証した場合、成功率とサンプル効率が大幅に向上した。
詳細とビデオは、匿名のプロジェクトwebサイト: https://sites.google.com/view/polybot-multirobot.com
関連論文リスト
- Pave the Way to Grasp Anything: Transferring Foundation Models for
Universal Pick-Place Robots [50.73735524550534]
そこで本稿では,最先端基礎モデルによって生成された言語基底セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
マスクから伝達される正確なセマンティクスとジオメトリを多視点ポリシーモデルに統合することにより、正確なオブジェクトのポーズを認識し、サンプル効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - CACTI: A Framework for Scalable Multi-Task Multi-Scene Visual Imitation
Learning [33.88636835443266]
キッチン環境におけるマルチタスク・マルチシーンロボット操作のレンズ下でのロボット学習のスケールアップのためのフレームワークを提案する。
CACTIという名前のフレームワークは,データ収集,データ拡張,視覚表現学習,模倣ポリシートレーニングの4つの段階を別々に扱う。
CACTIフレームワークでは、拡張段階の一部として、画像生成に最先端モデルを適用する利点を強調している。
論文 参考訳(メタデータ) (2022-12-12T05:30:08Z) - ExAug: Robot-Conditioned Navigation Policies via Geometric Experience
Augmentation [73.63212031963843]
本研究では,多様な環境における複数のデータセットから異なるロボットプラットフォームを体験するための新しいフレームワークであるExAugを提案する。
トレーニングされたポリシーは、屋内と屋外の障害物のある3つの異なるカメラを備えた2つの新しいロボットプラットフォームで評価される。
論文 参考訳(メタデータ) (2022-10-14T01:32:15Z) - From One Hand to Multiple Hands: Imitation Learning for Dexterous
Manipulation from Single-Camera Teleoperation [26.738893736520364]
我々は,iPadとコンピュータのみで3Dデモを効率的に収集する,新しい単一カメラ遠隔操作システムを提案する。
我々は,操作者の手の構造と形状が同じであるマニピュレータである物理シミュレータにおいて,各ユーザ向けにカスタマイズされたロボットハンドを構築する。
データを用いた模倣学習では、複数の複雑な操作タスクでベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2022-04-26T17:59:51Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。