論文の概要: Multi-Object Grasping -- Estimating the Number of Objects in a Robotic
Grasp
- arxiv url: http://arxiv.org/abs/2112.01270v1
- Date: Tue, 30 Nov 2021 15:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 17:34:12.009018
- Title: Multi-Object Grasping -- Estimating the Number of Objects in a Robotic
Grasp
- Title(参考訳): 多物体把持 --ロボット把持における物体数の推定-
- Authors: Tianze Chen, Adheesh Shenoy, Anzhelika Kolinko, Syed Shah and Yu Sun
- Abstract要約: 人間の手は、触覚のみに基づいて、一度に所望の物体を山から把握することができる。
そのためには、ロボットが山の中でつかむこと、持ち上げる前につかむ物体の数を感知すること、持ち上げる前につかむ物体の数を予測することが必要である。
本稿では,この問題を解決するための新しい多目的把握分析手法を提案する。
- 参考スコア(独自算出の注目度): 3.0184578839986917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A human hand can grasp a desired number of objects at once from a pile based
solely on tactile sensing. To do so, a robot needs to grasp within a pile,
sense the number of objects in the grasp before lifting, and predict the number
of objects that will remain in the grasp after lifting. It is a challenging
problem because when making the prediction, the robotic hand is still in the
pile and the objects in the grasp are not observable to vision systems.
Moreover, some objects that are grasped by the hand before lifting from the
pile may fall out of the grasp when the hand is lifted. This occurs because
they were supported by other objects in the pile instead of the fingers of the
hand. Therefore, a robotic hand should sense the number of objects in a grasp
using its tactile sensors before lifting. This paper presents novel
multi-object grasping analyzing methods for solving this problem. They include
a grasp volume calculation, tactile force analysis, and a data-driven deep
learning approach. The methods have been implemented on a Barrett hand and then
evaluated in simulations and a real setup with a robotic system. The evaluation
results conclude that once the Barrett hand grasps multiple objects in the
pile, the data-driven model can predict, before lifting, the number of objects
that will remain in the hand after lifting. The root-mean-square errors for our
approach are 0.74 for balls and 0.58 for cubes in simulations, and 1.06 for
balls, and 1.45 for cubes in the real system.
- Abstract(参考訳): 人間の手は、触覚センシングのみに基づいて、一度に所望の数の物体をつかむことができる。
そのためには、ロボットが山の中でつかむこと、持ち上げる前につかむ物体の数を感知すること、持ち上げる前につかむ物体の数を予測することが必要である。
予測を行うとき、ロボットの手はまだ山の中にあり、把持物は視覚系では観測できないため、これは難しい問題である。
また、山から持ち上げる前に手によってつかまれている物は、持ち上げられたときにつかみから落ちてしまうことがある。
これは、手の指の代わりに他の物体によって支えられていたためである。
したがって、ロボットハンドは持ち上げる前に触覚センサーを使ってグリップ内の物体の数を感知する必要がある。
本稿では,この問題に対する多目的把握分析手法を提案する。
これには、把握量計算、触覚力分析、データ駆動ディープラーニングアプローチが含まれる。
この手法はバレットの手で実装され、シミュレーションとロボットシステムによる実際の設定で評価されている。
評価の結果、バレットハンドが山の中の複数のオブジェクトをつかむと、データ駆動モデルが持ち上げる前に、持ち上げ後に手の中に残るオブジェクトの数を予測できることがわかった。
このアプローチの根-平均二乗誤差は、シミュレーションでボール 0.74 、キューブ 0.58 、ボール 1.06 、実システムでキューブ 1.45 である。
関連論文リスト
- 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - Counting Objects in a Robotic Hand [6.057565013011719]
多目的グリップを行うロボットは、グリップ後に手にあるオブジェクトの数を検出する必要がある。
本稿では,データ駆動型コントラスト学習に基づくカウント分類器を提案する。
提案手法は,実際の3つのオブジェクトに対して96%以上の精度を実現した。
論文 参考訳(メタデータ) (2024-04-09T21:46:14Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - DemoGrasp: Few-Shot Learning for Robotic Grasping with Human
Demonstration [42.19014385637538]
本稿では,ロボットに対して,単純で短い人間の実演で物体をつかむ方法を教えることを提案する。
まず、人間と物体の相互作用を示すRGB-D画像の小さなシーケンスを提示する。
このシーケンスを使用して、インタラクションを表す手とオブジェクトメッシュを構築する。
論文 参考訳(メタデータ) (2021-12-06T08:17:12Z) - Towards unconstrained joint hand-object reconstruction from RGB videos [81.97694449736414]
ハンドオブジェクト操作の再構築は、ロボット工学と人間のデモから学ぶ大きな可能性を秘めている。
まず,手動物体の相互作用をシームレスに処理できる学習不要な手動物体再構成手法を提案する。
論文 参考訳(メタデータ) (2021-08-16T12:26:34Z) - OmniHang: Learning to Hang Arbitrary Objects using Contact Point
Correspondences and Neural Collision Estimation [14.989379991558046]
本稿では,対象物と支援対象物の部分点雲を入力として入力し,対象物を安定して吊るす場所と方法を決定するシステムを提案する。
本システムは,対象物と支援物との接触点対応を推定し,安定なポーズを推定する。
そしてロボットは、物体を最初のポーズから安定したハングポーズに移動する、衝突のない経路を見つける必要がある。
論文 参考訳(メタデータ) (2021-03-26T06:11:05Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。