論文の概要: Opening Cabinets and Drawers in the Real World using a Commodity Mobile
Manipulator
- arxiv url: http://arxiv.org/abs/2402.17767v1
- Date: Tue, 27 Feb 2024 18:58:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 14:59:22.693772
- Title: Opening Cabinets and Drawers in the Real World using a Commodity Mobile
Manipulator
- Title(参考訳): コモディティ移動マニピュレータを用いた実世界におけるキャビネットと引き出しの開放
- Authors: Arjun Gupta, Michelle Zhang, Rishik Sathua, Saurabh Gupta
- Abstract要約: 我々は,コモディティ移動マニピュレータがオープンキャビネットや引き出しを引き出すことができるエンドツーエンドシステムを構築した。
私たちは、13の異なる現実世界環境から31の異なるオブジェクトにまたがる、このシステムの現実世界での4日間のテストを行ないました。
本システムでは, 新規キャビネットや引き出しをゼロショットで開封した場合, 61%の成功率を実現している。
- 参考スコア(独自算出の注目度): 16.018172627950857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pulling open cabinets and drawers presents many difficult technical
challenges in perception (inferring articulation parameters for objects from
onboard sensors), planning (producing motion plans that conform to tight task
constraints), and control (making and maintaining contact while applying forces
on the environment). In this work, we build an end-to-end system that enables a
commodity mobile manipulator (Stretch RE2) to pull open cabinets and drawers in
diverse previously unseen real world environments. We conduct 4 days of real
world testing of this system spanning 31 different objects from across 13
different real world environments. Our system achieves a success rate of 61% on
opening novel cabinets and drawers in unseen environments zero-shot. An
analysis of the failure modes suggests that errors in perception are the most
significant challenge for our system. We will open source code and models for
others to replicate and build upon our system.
- Abstract(参考訳): オープンキャビネットと引き出しは、知覚(搭載センサーからのオブジェクトの調音パラメーター)、計画(厳しいタスク制約に適合した動作計画の作成)、制御(環境に力を加えながら接触し、維持する)において、多くの難しい技術的課題を示す。
本研究では,コモディティ移動マニピュレータ(Stretch RE2)を用いて,これまで見られなかった多様な現実世界環境において,オープンキャビネットや引き出しを抽出するエンド・ツー・エンドシステムを構築する。
13の異なる実環境から31の異なる対象にまたがるこのシステムの4日間の実世界のテストを実施している。
本システムでは, 新規キャビネットや引き出しをゼロショットで開くと, 成功率は61%である。
障害モードの分析は、知覚の誤りがシステムにとって最も重要な課題であることを示唆している。
システムの複製と構築のために、オープンソースコードとモデルを公開します。
関連論文リスト
- QuadWBG: Generalizable Quadrupedal Whole-Body Grasping [7.802964645500815]
アームマウントカメラを用いたロコマニピュレーション・コントローラの高機能化のためのモジュラー・フレームワークを提案する。
提案システムは実世界の89%の最先端のワンタイム把握精度を実現する。
論文 参考訳(メタデータ) (2024-11-11T08:19:54Z) - Helpful DoggyBot: Open-World Object Fetching using Legged Robots and Vision-Language Models [63.89598561397856]
室内環境における四足歩行操作のためのシステムを提案する。
オブジェクト操作にはフロントマウントのグリップを使用しており、アジャイルスキルにエゴセントリックな深さを使ってシミュレーションでトレーニングされた低レベルのコントローラである。
実世界のデータ収集やトレーニングを行なわずに、2つの目に見えない環境でシステムを評価する。
論文 参考訳(メタデータ) (2024-09-30T20:58:38Z) - World Models for General Surgical Grasping [7.884835348797252]
我々は,世界モデルに基づく深層強化学習フレームワーク"Grasp Anything for Surgery"(GAS)を提案する。
外科的把握のためのピクセルレベルのビジュモータポリシーを学習し,汎用性とロバスト性の両方を向上する。
また,グリップ対象物体がグリップから落下した後に,背景変動,目標乱れ,カメラポーズ変動,運動制御誤差,画像ノイズ,再彫刻を含む6つの条件に対して,大きなロバスト性を示す。
論文 参考訳(メタデータ) (2024-05-28T08:11:12Z) - Object Detectors in the Open Environment: Challenges, Solutions, and Outlook [95.3317059617271]
オープン環境のダイナミックで複雑な性質は、オブジェクト検出器に新しくて恐ろしい挑戦をもたらす。
本稿では,オープン環境におけるオブジェクト検出器の総合的なレビューと解析を行う。
データ/ターゲットの変化の次元に基づいて、4つの四分法(ドメイン外、カテゴリ外、堅牢な学習、漸進的な学習)を含むフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-24T19:32:39Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Adaptive Mobile Manipulation for Articulated Objects In the Open World [37.34288363863099]
リアルな調音オブジェクト操作に対処するために,オープンワールド移動操作システムを導入する。
このシステムは、BCの50%の事前トレーニングから、オンライン適応を使用して95%まで、成功率を高めることができる。
論文 参考訳(メタデータ) (2024-01-25T18:59:44Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Robot Active Neural Sensing and Planning in Unknown Cluttered
Environments [0.0]
未知の乱雑な環境でのアクティブなセンシングと計画は、ホームサービス、探索と救助、狭い通行検査、医療支援を提供するロボットにとって、オープンな課題である。
本研究は,ロボットマニピュレータの動力学的に実現可能な視点列を手動カメラで生成し,基礎環境の再構築に必要な観測回数を最小化するための能動型ニューラルセンシング手法を提案する。
我々のフレームワークは視覚的RGBD観測を積極的に収集し、それらをシーン表現に集約し、環境との不要なロボットの相互作用を避けるためにオブジェクト形状推論を行う。
論文 参考訳(メタデータ) (2022-08-23T16:56:54Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。