論文の概要: Object Rearrangement Using Learned Implicit Collision Functions
- arxiv url: http://arxiv.org/abs/2011.10726v2
- Date: Fri, 26 Mar 2021 07:38:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 23:34:09.411919
- Title: Object Rearrangement Using Learned Implicit Collision Functions
- Title(参考訳): 入出力衝突関数を用いた物体再構成
- Authors: Michael Danielczuk, Arsalan Mousavian, Clemens Eppner, Dieter Fox
- Abstract要約: 本研究では,シーン内の6DOFオブジェクトのポーズに対して,シーンとクエリ対象点の雲を受け付け,衝突を予測できる学習的衝突モデルを提案する。
我々は,テーブルトップ再構成タスクにおけるモデル予測経路積分(MPPI)ポリシーの一部として,学習された衝突モデルを活用する。
学習モデルは従来のパイプラインよりも優れており、シミュレーションされた衝突クエリのデータセット上では9.8%の精度で学習精度が向上している。
- 参考スコア(独自算出の注目度): 61.90305371998561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotic object rearrangement combines the skills of picking and placing
objects. When object models are unavailable, typical collision-checking models
may be unable to predict collisions in partial point clouds with occlusions,
making generation of collision-free grasping or placement trajectories
challenging. We propose a learned collision model that accepts scene and query
object point clouds and predicts collisions for 6DOF object poses within the
scene. We train the model on a synthetic set of 1 million scene/object point
cloud pairs and 2 billion collision queries. We leverage the learned collision
model as part of a model predictive path integral (MPPI) policy in a tabletop
rearrangement task and show that the policy can plan collision-free grasps and
placements for objects unseen in training in both simulated and physical
cluttered scenes with a Franka Panda robot. The learned model outperforms both
traditional pipelines and learned ablations by 9.8% in accuracy on a dataset of
simulated collision queries and is 75x faster than the best-performing
baseline. Videos and supplementary material are available at
https://research.nvidia.com/publication/2021-03_Object-Rearrangement-Using.
- Abstract(参考訳): ロボットオブジェクトの配置は、オブジェクトの選定と配置のスキルを組み合わせる。
物体モデルが利用できない場合、典型的な衝突チェックモデルは、閉塞を伴う部分点雲内の衝突を予測できないため、衝突のない把握や配置軌道の生成は困難である。
本研究では,シーンを受理し,オブジェクトポイントクラウドに問い合わせ,シーン内の6dofオブジェクトポーズの衝突を予測する,学習型衝突モデルを提案する。
我々は、100万のシーン/オブジェクトポイントクラウドペアと20億の衝突クエリからなる合成セットでモデルをトレーニングする。
本研究では,モデル予測経路積分(MPPI)ポリシーの一部として学習された衝突モデルを活用し,Franka Pandaロボットを用いて,シミュレーションおよび物理的に散らばったシーンにおいて,トレーニング中に見えない物体の衝突のない把握と配置を計画できることを示す。
学習モデルは従来のパイプラインよりも優れており、シミュレーションされた衝突クエリのデータセットでは9.8%精度が向上し、最高のパフォーマンスのベースラインよりも75倍高速である。
ビデオと補足資料はhttps://research.nvidia.com/publication/2021-03_object-rearrangement-usingで入手できる。
関連論文リスト
- Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - Suspected Object Matters: Rethinking Model's Prediction for One-stage
Visual Grounding [93.82542533426766]
疑似オブジェクト間の対象オブジェクト選択を促進するため,疑似オブジェクト変換機構(SOT)を提案する。
SOTは既存のCNNとTransformerベースのワンステージ視覚グラウンドにシームレスに統合できる。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-10T06:41:07Z) - Active Learning of Neural Collision Handler for Complex 3D Mesh
Deformations [68.0524382279567]
3次元変形メッシュにおける衝突の検出と処理を行う頑健な学習アルゴリズムを提案する。
提案手法は教師あり学習法より優れ, 精度は93.8-98.1%である。
論文 参考訳(メタデータ) (2021-10-08T04:08:31Z) - Simultaneous Semantic and Collision Learning for 6-DoF Grasp Pose
Estimation [20.11811614166135]
我々は,同時マルチタスク学習問題として6-DoFグリップポーズ推定を定式化する。
統合されたフレームワークでは、実現可能な6-DoFグリップポーズ、インスタンスセマンティックセグメンテーション、衝突情報を共同で予測する。
本モデルは,大規模ベンチマークと実ロボットシステムを用いて評価する。
論文 参考訳(メタデータ) (2021-08-05T07:46:48Z) - SIMstack: A Generative Shape and Instance Model for Unordered Object
Stacks [38.042876641457255]
物理シミュレーションにより積み上げられた物体のデータセットに訓練された深度条件付き可変オートエンコーダ(VAE)を提案する。
インスタンスセグメンテーションは、クラスに依存しない検出を可能にし、シーン内のオブジェクトの最大数を設定する必要がないセンター投票タスクとして定式化します。
本手法は,ロボットに部分的に観察されたシーンを素早く直感的に推論する能力を与えるための実用的応用である。
論文 参考訳(メタデータ) (2021-03-30T15:42:43Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。