論文の概要: simPLE: a visuotactile method learned in simulation to precisely pick,
localize, regrasp, and place objects
- arxiv url: http://arxiv.org/abs/2307.13133v1
- Date: Mon, 24 Jul 2023 21:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 18:54:15.879366
- Title: simPLE: a visuotactile method learned in simulation to precisely pick,
localize, regrasp, and place objects
- Title(参考訳): simple: 物体を正確に選別し、ローカライズし、再生し、配置する、シミュレーションで学んだビズオタクティル法
- Authors: Maria Bauza, Antonia Bronars, Yifan Hou, Ian Taylor, Nikhil
Chavan-Dafle, Alberto Rodriguez
- Abstract要約: 本稿では,精密かつ汎用的なピック・アンド・プレイスの解法について検討する。
正確なピック・アンド・プレイスの解法としてシミュレートを提案する。
SimPLEは、オブジェクトCADモデルのみを前提に、オブジェクトの選択、再彫刻、配置を正確に学習する。
- 参考スコア(独自算出の注目度): 16.178331266949293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing robotic systems have a clear tension between generality and
precision. Deployed solutions for robotic manipulation tend to fall into the
paradigm of one robot solving a single task, lacking precise generalization,
i.e., the ability to solve many tasks without compromising on precision. This
paper explores solutions for precise and general pick-and-place. In precise
pick-and-place, i.e. kitting, the robot transforms an unstructured arrangement
of objects into an organized arrangement, which can facilitate further
manipulation. We propose simPLE (simulation to Pick Localize and PLacE) as a
solution to precise pick-and-place. simPLE learns to pick, regrasp and place
objects precisely, given only the object CAD model and no prior experience. We
develop three main components: task-aware grasping, visuotactile perception,
and regrasp planning. Task-aware grasping computes affordances of grasps that
are stable, observable, and favorable to placing. The visuotactile perception
model relies on matching real observations against a set of simulated ones
through supervised learning. Finally, we compute the desired robot motion by
solving a shortest path problem on a graph of hand-to-hand regrasps. On a
dual-arm robot equipped with visuotactile sensing, we demonstrate
pick-and-place of 15 diverse objects with simPLE. The objects span a wide range
of shapes and simPLE achieves successful placements into structured
arrangements with 1mm clearance over 90% of the time for 6 objects, and over
80% of the time for 11 objects. Videos are available at
http://mcube.mit.edu/research/simPLE.html .
- Abstract(参考訳): 既存のロボットシステムは、一般性と精度の間に明確な緊張関係がある。
ロボット操作のためのデプロイされたソリューションは、1つのタスクを解決する1つのロボットのパラダイムに陥り、正確な一般化、すなわち精度を損なうことなく多くのタスクを解決できる能力が欠如している。
本稿では, 精密かつ汎用的なピック・アンド・プレースソリューションについて検討する。
正確なピック・アンド・プレイス、すなわちキッティングにおいて、ロボットは物体の非構造的な配置を組織的な配置に変換することにより、さらなる操作を容易にする。
そこで我々は,正確なピック・アンド・プレイスの解法としてsimPLE (Pick Localize and PLacE)を提案する。
オブジェクトCADモデルのみを前提として,オブジェクトの選択,再彫刻,配置を正確に行うことを学ぶ。
我々は,タスク認識の把握,視覚的知覚,再現計画の3つの主要コンポーネントを開発する。
タスクアウェア把持は、安定し、観測可能で、配置に好適な把持の余裕を計算する。
visuotactile perception modelは、教師付き学習を通じてシミュレーションされたものに対して実際の観察をマッチングすることに依存している。
最後に,手指のグラップのグラフ上で最短経路問題を解き,所望のロボット動作を計算する。
バイスオタクティルセンシングを備えたデュアルアームロボットにおいて,15種類の多種多様な物体を簡易にピックアップ・アンド・プレイスで検出する。
オブジェクトは幅広い形状にまたがり、6つのオブジェクトの90%以上、11つのオブジェクトの80%以上をクリアランスで、1mmのクリアランスで構造化された配列に配置することに成功した。
ビデオはhttp://mcube.mit.edu/research/simple.htmlで閲覧できる。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Counting Objects in a Robotic Hand [6.057565013011719]
多目的グリップを行うロボットは、グリップ後に手にあるオブジェクトの数を検出する必要がある。
本稿では,データ駆動型コントラスト学習に基づくカウント分類器を提案する。
提案手法は,実際の3つのオブジェクトに対して96%以上の精度を実現した。
論文 参考訳(メタデータ) (2024-04-09T21:46:14Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Learning to Regrasp by Learning to Place [19.13976401970985]
ロボットの現在の握りポーズが望ましい操作タスクの実行に失敗する場合、レギュラピングが必要である。
本研究では,ロボットが物体と支援環境の部分点雲を入力として取り出し,一連のピック・アンド・プレイス操作を出力するシステムを提案する。
我々は,多様な物体を再現することで,73.3%の成功率を達成できることを示す。
論文 参考訳(メタデータ) (2021-09-18T03:07:06Z) - Predicting Stable Configurations for Semantic Placement of Novel Objects [37.18437299513799]
我々のゴールは、新しい環境における学習された意味的関係に従って、ロボットが未確認の物体を配置できるようにすることである。
我々は、未知のオブジェクトのセマンティック配置のための計画アルゴリズムと密に統合するために、モデルとトレーニングをゼロから構築する。
提案手法は,RGB-Dセンシングのみによる形状の異なるシーンにおける未知物体のセマンティック・アレンジメントのための動作計画を可能にする。
論文 参考訳(メタデータ) (2021-08-26T23:05:05Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Towards Robotic Assembly by Predicting Robust, Precise and Task-oriented
Grasps [17.07993278175686]
本稿では,3つのカスケードネットワークを学習することで,把握,精度,タスク性能を最適化する手法を提案する。
我々は,歯車をペグに挿入し,ブラケットをコーナーにアライメントし,形状をスロットに挿入する3つの一般的な組立作業のシミュレーションにおいて,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-11-04T18:29:01Z) - Low Dimensional State Representation Learning with Reward-shaped Priors [7.211095654886105]
本研究では,観測結果から低次元状態空間への写像の学習を目的とした手法を提案する。
このマッピングは、環境とタスクの事前知識を組み込むために形作られた損失関数を用いて教師なしの学習で学習される。
本手法は,シミュレーション環境における移動ロボットナビゲーションタスクおよび実ロボット上でのテストを行う。
論文 参考訳(メタデータ) (2020-07-29T13:00:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。