論文の概要: Learning to Regrasp by Learning to Place
- arxiv url: http://arxiv.org/abs/2109.08817v1
- Date: Sat, 18 Sep 2021 03:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:59:41.323862
- Title: Learning to Regrasp by Learning to Place
- Title(参考訳): 場所を学習して振り返る学習
- Authors: Shuo Cheng, Kaichun Mo, Lin Shao
- Abstract要約: ロボットの現在の握りポーズが望ましい操作タスクの実行に失敗する場合、レギュラピングが必要である。
本研究では,ロボットが物体と支援環境の部分点雲を入力として取り出し,一連のピック・アンド・プレイス操作を出力するシステムを提案する。
我々は,多様な物体を再現することで,73.3%の成功率を達成できることを示す。
- 参考スコア(独自算出の注目度): 19.13976401970985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore whether a robot can learn to regrasp a diverse set
of objects to achieve various desired grasp poses. Regrasping is needed
whenever a robot's current grasp pose fails to perform desired manipulation
tasks. Endowing robots with such an ability has applications in many domains
such as manufacturing or domestic services. Yet, it is a challenging task due
to the large diversity of geometry in everyday objects and the high
dimensionality of the state and action space. In this paper, we propose a
system for robots to take partial point clouds of an object and the supporting
environment as inputs and output a sequence of pick-and-place operations to
transform an initial object grasp pose to the desired object grasp poses. The
key technique includes a neural stable placement predictor and a regrasp graph
based solution through leveraging and changing the surrounding environment. We
introduce a new and challenging synthetic dataset for learning and evaluating
the proposed approach. In this dataset, we show that our system is able to
achieve 73.3% success rate of regrasping diverse objects.
- Abstract(参考訳): 本稿では,ロボットが多様な対象の集合を再現し,様々な所望の把持動作を実現することができるかを検討する。
ロボットの現在の把握ポーズが望ましい操作タスクの実行に失敗した場合、レギュラピングが必要である。
このような能力を持つ内転ロボットは、製造や国内サービスといった多くの分野に応用されている。
しかし、これは日常の物体における幾何の多様性と状態と行動空間の高次元性のために難しい課題である。
本稿では,ロボットが対象物と支援環境の部分点雲を入力として取り出し,対象物の把握ポーズに初期オブジェクトの把握ポーズを変換するための一連のピック・アンド・プレイス操作を出力するシステムを提案する。
鍵となる手法は、周囲の環境を活用・変更することで、神経安定配置予測器と、グラフベースソリューションを含む。
提案手法を学習し,評価するための新しい,挑戦的な合成データセットを提案する。
このデータセットでは、我々のシステムは多様なオブジェクトを認識して73.3%の成功率を達成できることを示した。
関連論文リスト
- Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [9.528351777701811]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - simPLE: a visuotactile method learned in simulation to precisely pick,
localize, regrasp, and place objects [16.178331266949293]
本稿では,精密かつ汎用的なピック・アンド・プレイスの解法について検討する。
正確なピック・アンド・プレイスの解法としてシミュレートを提案する。
SimPLEは、オブジェクトCADモデルのみを前提に、オブジェクトの選択、再彫刻、配置を正確に学習する。
論文 参考訳(メタデータ) (2023-07-24T21:22:58Z) - Pave the Way to Grasp Anything: Transferring Foundation Models for
Universal Pick-Place Robots [50.73735524550534]
そこで本稿では,最先端基礎モデルによって生成された言語基底セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
マスクから伝達される正確なセマンティクスとジオメトリを多視点ポリシーモデルに統合することにより、正確なオブジェクトのポーズを認識し、サンプル効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - OmniHang: Learning to Hang Arbitrary Objects using Contact Point
Correspondences and Neural Collision Estimation [14.989379991558046]
本稿では,対象物と支援対象物の部分点雲を入力として入力し,対象物を安定して吊るす場所と方法を決定するシステムを提案する。
本システムは,対象物と支援物との接触点対応を推定し,安定なポーズを推定する。
そしてロボットは、物体を最初のポーズから安定したハングポーズに移動する、衝突のない経路を見つける必要がある。
論文 参考訳(メタデータ) (2021-03-26T06:11:05Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。