論文の概要: GNM: A General Navigation Model to Drive Any Robot
- arxiv url: http://arxiv.org/abs/2210.03370v1
- Date: Fri, 7 Oct 2022 07:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:23:54.867141
- Title: GNM: A General Navigation Model to Drive Any Robot
- Title(参考訳): GNM:どんなロボットでも運転できる一般的なナビゲーションモデル
- Authors: Dhruv Shah, Ajay Sridhar, Arjun Bhorkar, Noriaki Hirose, Sergey Levine
- Abstract要約: 視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
- 参考スコア(独自算出の注目度): 67.40225397212717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning provides a powerful tool for vision-based navigation, but the
capabilities of learning-based policies are constrained by limited training
data. If we could combine data from all available sources, including multiple
kinds of robots, we could train more powerful navigation models. In this paper,
we study how a general goal-conditioned model for vision-based navigation can
be trained on data obtained from many distinct but structurally similar robots,
and enable broad generalization across environments and embodiments. We analyze
the necessary design decisions for effective data sharing across robots,
including the use of temporal context and standardized action spaces, and
demonstrate that an omnipolicy trained from heterogeneous datasets outperforms
policies trained on any single dataset. We curate 60 hours of navigation
trajectories from 6 distinct robots, and deploy the trained GNM on a range of
new robots, including an underactuated quadrotor. We find that training on
diverse data leads to robustness against degradation in sensing and actuation.
Using a pre-trained navigation model with broad generalization capabilities can
bootstrap applications on novel robots going forward, and we hope that the GNM
represents a step in that direction. For more information on the datasets,
code, and videos, please check out
http://sites.google.com/view/drive-any-robot.
- Abstract(参考訳): 学習は視覚ベースのナビゲーションに強力なツールを提供するが、学習ベースのポリシーの能力は、限られたトレーニングデータによって制限される。
複数の種類のロボットを含む、利用可能なすべてのソースからのデータを組み合わせることができれば、より強力なナビゲーションモデルをトレーニングできるでしょう。
本稿では,視覚ベースのナビゲーションのための汎用的目標条件モデルについて,異なるが構造的に類似した多数のロボットから得られたデータに基づいて学習し,環境や実施形態をまたいだ広範な一般化を実現する方法について検討する。
我々は,時間的文脈や標準化された行動空間など,ロボット間の効果的なデータ共有に必要な設計決定を分析し,不均質なデータセットから訓練された全政治が,単一のデータセットで訓練されたポリシーを上回ることを実証する。
6つの異なるロボットから60時間のナビゲーショントラジェクトリをキュレートし、訓練されたGNMを未作動の四足歩行器を含む新しいロボットに展開する。
多様なデータに対するトレーニングは、センシングとアクティベーションの劣化に対して堅牢性をもたらす。
幅広い一般化機能を備えた事前訓練されたナビゲーションモデルを使用することで、新たなロボットのアプリケーションをブートストラップすることが可能になります。
データセット、コード、ビデオの詳細は、http://sites.google.com/view/drive-any-robot.com を参照してください。
関連論文リスト
- Robot Utility Models: General Policies for Zero-Shot Deployment in New Environments [26.66666135624716]
ゼロショットロボットポリシーのトレーニングとデプロイのためのフレームワークであるロボットユーティリティモデル(RUM)を提案する。
RUMは微調整なしで新しい環境に一般化できる。
キャビネットドアのオープン、引き出しのオープン、ナプキンのピックアップ、紙袋のピックアップ、転倒物の再配向の5つのユーティリティモデルを訓練する。
論文 参考訳(メタデータ) (2024-09-09T17:59:50Z) - Scaling Cross-Embodied Learning: One Policy for Manipulation, Navigation, Locomotion and Aviation [49.03165169369552]
さまざまな種類のロボットにまたがって単一のポリシーを訓練することによって、ロボット学習はより広範囲で多様なデータセットを活用することができる。
そこで我々はCrossFormerを提案する。CrossFormerはスケーラブルでフレキシブルなトランスフォーマーベースのポリシーで、どんな実施形態からでもデータを消費できる。
我々は、同じネットワークウェイトがシングルアームとデュアルアームの操作システム、車輪付きロボット、クワッドコプター、四足歩行など、非常に異なるロボットを制御できることを実証した。
論文 参考訳(メタデータ) (2024-08-21T17:57:51Z) - AutoRT: Embodied Foundation Models for Large Scale Orchestration of Robotic Agents [109.3804962220498]
AutoRTは、人間の監督を最小限に抑えて、完全に見えないシナリオで運用ロボットの展開をスケールアップするシステムである。
われわれはAutoRTが複数の建物にまたがる20以上のロボットに指示を提示し、遠隔操作と自律ロボットポリシーを通じて77万個の実ロボットエピソードを収集するデモを行った。
実験により,AutoRTが収集した「未使用データ」は極めて多種多様であり,AutoRTのLLMを使用することで,人間の好みに合わせることができるデータ収集ロボットの指示が可能であることを実証した。
論文 参考訳(メタデータ) (2024-01-23T18:45:54Z) - ViNT: A Foundation Model for Visual Navigation [52.2571739391896]
Visual Navigation Transformer (ViNT) は視覚に基づくロボットナビゲーションの基礎モデルである。
ViNTは、任意のナビゲーションデータセットで使用可能な、汎用的な目標達成目標でトレーニングされている。
特定のデータセットでトレーニングされたスペシャリストモデルよりも優れた、肯定的な転送を示す。
論文 参考訳(メタデータ) (2023-06-26T16:57:03Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - Multi-Robot Deep Reinforcement Learning for Mobile Navigation [82.62621210336881]
階層的統合モデル(HInt)を用いた深層強化学習アルゴリズムを提案する。
トレーニング時には、HIntは別々の知覚モデルとダイナミクスモデルを学び、テスト時には、HIntは2つのモデルを階層的な方法で統合し、統合モデルとアクションを計画する。
我々のモバイルナビゲーション実験は、HIntが従来の階層的ポリシーや単一ソースアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-06-24T19:07:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。