論文の概要: Grasp Multiple Objects with One Hand
- arxiv url: http://arxiv.org/abs/2310.15599v2
- Date: Thu, 14 Mar 2024 09:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-16 02:22:46.595805
- Title: Grasp Multiple Objects with One Hand
- Title(参考訳): 片手で複数のオブジェクトをグラフ化する
- Authors: Yuyang Li, Bo Liu, Yiran Geng, Puhao Li, Yaodong Yang, Yixin Zhu, Tengyu Liu, Siyuan Huang,
- Abstract要約: MultiGraspは、テーブルトップ上のデキスタラスな多指ロボットハンドを用いて、複数の物体をつかむための新しい2段階のアプローチである。
我々の実験は、主に二重物体の把握に焦点を合わせ、44.13%の成功率を達成した。
このフレームワークは、推論速度を犠牲にして2つ以上のオブジェクトをつかむ可能性を実証している。
- 参考スコア(独自算出の注目度): 44.18611368961791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The intricate kinematics of the human hand enable simultaneous grasping and manipulation of multiple objects, essential for tasks such as object transfer and in-hand manipulation. Despite its significance, the domain of robotic multi-object grasping is relatively unexplored and presents notable challenges in kinematics, dynamics, and object configurations. This paper introduces MultiGrasp, a novel two-stage approach for multi-object grasping using a dexterous multi-fingered robotic hand on a tabletop. The process consists of (i) generating pre-grasp proposals and (ii) executing the grasp and lifting the objects. Our experimental focus is primarily on dual-object grasping, achieving a success rate of 44.13%, highlighting adaptability to new object configurations and tolerance for imprecise grasps. Additionally, the framework demonstrates the potential for grasping more than two objects at the cost of inference speed.
- Abstract(参考訳): 人間の手の複雑なキネマティクスは、複数のオブジェクトの同時把握と操作を可能にし、オブジェクトの移動や手動操作のようなタスクに必須である。
その重要性にもかかわらず、ロボット多目的把握の領域は比較的未探索であり、キネマティクス、ダイナミクス、オブジェクト構成において顕著な課題を提示している。
本稿では,テーブルトップ上に自在な多指ロボットハンドを用いた多目的グリップのための新しい2段階アプローチであるMultiGraspを紹介する。
プロセスは、
一 事前の申告書の作成及び
(二 物をつかんで持ち上げること。)
我々の実験は、主に二重物体把握に焦点をあて、44.13%の成功率を達成し、新しい物体構成への適応性と不正確な把握に対する耐性を強調した。
さらに、このフレームワークは推論速度を犠牲にして2つ以上のオブジェクトをつかむ可能性を実証している。
関連論文リスト
- Twisting Lids Off with Two Hands [88.20584085182857]
深層強化学習を用いたシミュレーションで訓練された政策は,実世界へ効果的に移行可能であることを示す。
我々の研究は、深層強化学習とsim-to-realトランスファーが相まって、前例のない複雑さの操作問題に対処する上で有望なアプローチであることを示す証拠となる。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Kinematic-aware Prompting for Generalizable Articulated Object
Manipulation with LLMs [53.66070434419739]
汎用的なオブジェクト操作は、ホームアシストロボットにとって不可欠である。
本稿では,物体のキネマティックな知識を持つ大規模言語モデルに対して,低レベル動作経路を生成するキネマティック・アウェア・プロンプト・フレームワークを提案する。
我々のフレームワークは8つのカテゴリで従来の手法よりも優れており、8つの未確認対象カテゴリに対して強力なゼロショット能力を示している。
論文 参考訳(メタデータ) (2023-11-06T03:26:41Z) - Applying Ising Machines to Multi-objective QUBOs [0.0]
2つ以上の目的を持つ問題に対してスカラー化重みを導出する適応的手法を拡張した。
3 と 4 つの目的を持つマルチオブジェクト非制約バイナリ二次プログラミング (mUBQP) インスタンス上での最高の性能を示す。
論文 参考訳(メタデータ) (2023-05-19T12:53:48Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Efficient and Robust Training of Dense Object Nets for Multi-Object
Robot Manipulation [8.321536457963655]
我々はDense Object Nets(DON)の堅牢で効率的なトレーニングのためのフレームワークを提案する。
本研究は,多目的データを用いた学習に重点を置いている。
実世界のロボットによる把握作業において,提案手法の頑健さと精度を実証する。
論文 参考訳(メタデータ) (2022-06-24T08:24:42Z) - DemoGrasp: Few-Shot Learning for Robotic Grasping with Human
Demonstration [42.19014385637538]
本稿では,ロボットに対して,単純で短い人間の実演で物体をつかむ方法を教えることを提案する。
まず、人間と物体の相互作用を示すRGB-D画像の小さなシーケンスを提示する。
このシーケンスを使用して、インタラクションを表す手とオブジェクトメッシュを構築する。
論文 参考訳(メタデータ) (2021-12-06T08:17:12Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Simultaneous Multi-View Object Recognition and Grasping in Open-Ended
Domains [0.0]
オープンなオブジェクト認識と把握を同時に行うために,メモリ容量を増強したディープラーニングアーキテクチャを提案する。
シミュレーションと実世界設定の両方において,本手法が未確認のオブジェクトを把握し,現場でのごくわずかな例を用いて,新たなオブジェクトカテゴリを迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2021-06-03T14:12:11Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。