論文の概要: ExAug: Robot-Conditioned Navigation Policies via Geometric Experience
Augmentation
- arxiv url: http://arxiv.org/abs/2210.07450v1
- Date: Fri, 14 Oct 2022 01:32:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 14:46:18.891618
- Title: ExAug: Robot-Conditioned Navigation Policies via Geometric Experience
Augmentation
- Title(参考訳): exaug:幾何経験の強化によるロボットコンディショニングナビゲーションポリシー
- Authors: Noriaki Hirose, Dhruv Shah, Ajay Sridhar, Sergey Levine
- Abstract要約: 本研究では,多様な環境における複数のデータセットから異なるロボットプラットフォームを体験するための新しいフレームワークであるExAugを提案する。
トレーニングされたポリシーは、屋内と屋外の障害物のある3つの異なるカメラを備えた2つの新しいロボットプラットフォームで評価される。
- 参考スコア(独自算出の注目度): 73.63212031963843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning techniques rely on large and diverse datasets for
generalization. Computer vision, natural language processing, and other
applications can often reuse public datasets to train many different models.
However, due to differences in physical configurations, it is challenging to
leverage public datasets for training robotic control policies on new robot
platforms or for new tasks. In this work, we propose a novel framework, ExAug
to augment the experiences of different robot platforms from multiple datasets
in diverse environments. ExAug leverages a simple principle: by extracting 3D
information in the form of a point cloud, we can create much more complex and
structured augmentations, utilizing both generating synthetic images and
geometric-aware penalization that would have been suitable in the same
situation for a different robot, with different size, turning radius, and
camera placement. The trained policy is evaluated on two new robot platforms
with three different cameras in indoor and outdoor environments with obstacles.
- Abstract(参考訳): 機械学習技術は、一般化のために大規模で多様なデータセットに依存している。
コンピュータビジョン、自然言語処理、その他のアプリケーションは、しばしば公開データセットを再利用して、多くの異なるモデルをトレーニングすることができる。
しかし、物理的な構成の違いから、新しいロボットプラットフォームや新しいタスクでロボット制御ポリシーをトレーニングするために、公開データセットを活用するのは難しい。
本研究では,多様な環境における複数のデータセットから異なるロボットプラットフォームを体験するための新しいフレームワークであるExAugを提案する。
exaugは、ポイントクラウドの形で3d情報を抽出することで、合成画像の生成と、異なるサイズ、回転半径、カメラ配置の異なる異なる異なる異なるロボットに同じ状況に適した幾何学的認識によるペナリゼーションの両方を利用して、より複雑で構造化された拡張を作成することができる。
トレーニングされたポリシーは、屋内と屋外の障害物のある3つの異なるカメラを備えた2つの新しいロボットプラットフォームで評価される。
関連論文リスト
- RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - MEM: Multi-Modal Elevation Mapping for Robotics and Learning [10.476978089902818]
我々は、複数の情報源からのマルチモーダル情報を一般的な地図表現に融合させることにより、2.5Dロボット中心の標高マッピングフレームワークを拡張した。
我々のシステムはGPU上で動くように設計されており、様々なロボットや学習タスクをリアルタイムに行うことができる。
論文 参考訳(メタデータ) (2023-09-28T19:55:29Z) - Polybot: Training One Policy Across Robots While Embracing Variability [70.74462430582163]
複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
論文 参考訳(メタデータ) (2023-07-07T17:21:16Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Pave the Way to Grasp Anything: Transferring Foundation Models for
Universal Pick-Place Robots [50.73735524550534]
そこで本稿では,最先端基礎モデルによって生成された言語基底セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
マスクから伝達される正確なセマンティクスとジオメトリを多視点ポリシーモデルに統合することにより、正確なオブジェクトのポーズを認識し、サンプル効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。