論文の概要: Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping
- arxiv url: http://arxiv.org/abs/2101.07347v1
- Date: Mon, 18 Jan 2021 22:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 06:53:12.763009
- Title: Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping
- Title(参考訳): リアルタイム適応ロボット把持のためのrgbと深度データからの物体検出とポーズ推定
- Authors: S. K. Paul, M. T. Chowdhury, M. Nicolescu, M. Nicolescu
- Abstract要約: 動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent times, object detection and pose estimation have gained significant
attention in the context of robotic vision applications. Both the
identification of objects of interest as well as the estimation of their pose
remain important capabilities in order for robots to provide effective
assistance for numerous robotic applications ranging from household tasks to
industrial manipulation. This problem is particularly challenging because of
the heterogeneity of objects having different and potentially complex shapes,
and the difficulties arising due to background clutter and partial occlusions
between objects. As the main contribution of this work, we propose a system
that performs real-time object detection and pose estimation, for the purpose
of dynamic robot grasping. The robot has been pre-trained to perform a small
set of canonical grasps from a few fixed poses for each object. When presented
with an unknown object in an arbitrary pose, the proposed approach allows the
robot to detect the object identity and its actual pose, and then adapt a
canonical grasp in order to be used with the new pose. For training, the system
defines a canonical grasp by capturing the relative pose of an object with
respect to the gripper attached to the robot's wrist. During testing, once a
new pose is detected, a canonical grasp for the object is identified and then
dynamically adapted by adjusting the robot arm's joint angles, so that the
gripper can grasp the object in its new pose. We conducted experiments using a
humanoid PR2 robot and showed that the proposed framework can detect
well-textured objects, and provide accurate pose estimation in the presence of
tolerable amounts of out-of-plane rotation. The performance is also illustrated
by the robot successfully grasping objects from a wide range of arbitrary
poses.
- Abstract(参考訳): 近年,ロボット視覚応用の文脈において,物体検出とポーズ推定が注目されている。
興味のある物体の識別とポーズの推定は、ロボットが家庭の作業から工業的な操作まで、多くのロボットアプリケーションに対して効果的な支援を提供するためにも重要である。
この問題は、異なる形と潜在的に複雑な形状を持つ物体の多様性と、背景のクラッタと物体間の部分的な閉塞によって生じる困難のため、特に困難である。
本研究の主な貢献として,動的ロボットの把握を目的としたリアルタイム物体検出とポーズ推定を行うシステムを提案する。
ロボットは、各オブジェクトに対するいくつかの固定されたポーズから、少数の標準的グリップを実行するために事前訓練されている。
任意のポーズで未知のオブジェクトを提示すると、ロボットはオブジェクトの同一性とその実際のポーズを検知し、新しいポーズで使用するために標準的グリップを適用することができる。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
試験中、新たなポーズが検出されると、ロボットアームの関節角度を調整して物体の正準把持を識別して動的に適応させ、グリッパーが新たなポーズで物体を把持できるようにする。
我々はヒューマノイドPR2ロボットを用いて実験を行い、提案したフレームワークが良好なテクスチャを持つ物体を検知し、許容量の飛行機外回転の存在下で正確なポーズ推定を行うことを示した。
また、ロボットが任意のポーズからオブジェクトをつかむのに成功し、パフォーマンスを図示する。
関連論文リスト
- Precision-Focused Reinforcement Learning Model for Robotic Object Pushing [1.2374541748245842]
非包括的操作は、ロボットが日常の状況で人間を支援する上で重要なスキルである。
我々は,物体を目標位置へより正確にプッシュするために,新しいメモリベース視覚伝達RLモデルを提案する。
論文 参考訳(メタデータ) (2024-11-13T14:08:58Z) - Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - CtRNet-X: Camera-to-Robot Pose Estimation in Real-world Conditions Using a Single Camera [18.971816395021488]
マーカーレスポーズ推定手法は、カメラとロボットのキャリブレーションに時間を要する物理的な設定を不要にしている。
部分的に見えるロボットマニピュレータでロボットのポーズを推定できる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-16T16:22:43Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Learning to Regrasp by Learning to Place [19.13976401970985]
ロボットの現在の握りポーズが望ましい操作タスクの実行に失敗する場合、レギュラピングが必要である。
本研究では,ロボットが物体と支援環境の部分点雲を入力として取り出し,一連のピック・アンド・プレイス操作を出力するシステムを提案する。
我々は,多様な物体を再現することで,73.3%の成功率を達成できることを示す。
論文 参考訳(メタデータ) (2021-09-18T03:07:06Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - OmniHang: Learning to Hang Arbitrary Objects using Contact Point
Correspondences and Neural Collision Estimation [14.989379991558046]
本稿では,対象物と支援対象物の部分点雲を入力として入力し,対象物を安定して吊るす場所と方法を決定するシステムを提案する。
本システムは,対象物と支援物との接触点対応を推定し,安定なポーズを推定する。
そしてロボットは、物体を最初のポーズから安定したハングポーズに移動する、衝突のない経路を見つける必要がある。
論文 参考訳(メタデータ) (2021-03-26T06:11:05Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。