論文の概要: DexYCB: A Benchmark for Capturing Hand Grasping of Objects
- arxiv url: http://arxiv.org/abs/2104.04631v1
- Date: Fri, 9 Apr 2021 22:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:17:23.926845
- Title: DexYCB: A Benchmark for Capturing Hand Grasping of Objects
- Title(参考訳): DexYCB: オブジェクトのハンドグレーピングをキャプチャするためのベンチマーク
- Authors: Yu-Wei Chao and Wei Yang and Yu Xiang and Pavlo Molchanov and Ankur
Handa and Jonathan Tremblay and Yashraj S. Narang and Karl Van Wyk and Umar
Iqbal and Stan Birchfield and Jan Kautz and Dieter Fox
- Abstract要約: DexYCBは、オブジェクトのハンドグルーピングをキャプチャする新しいデータセットである。
3つの関連するタスクに対する最先端のアプローチのベンチマークを示す。
次に、ロボットとロボットのハンドオーバで安全なロボットの把握を生成する新しいロボティクス関連タスクを評価します。
- 参考スコア(独自算出の注目度): 101.48808584983867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce DexYCB, a new dataset for capturing hand grasping of objects. We
first compare DexYCB with a related one through cross-dataset evaluation. We
then present a thorough benchmark of state-of-the-art approaches on three
relevant tasks: 2D object and keypoint detection, 6D object pose estimation,
and 3D hand pose estimation. Finally, we evaluate a new robotics-relevant task:
generating safe robot grasps in human-to-robot object handover. Dataset and
code are available at https://dex-ycb.github.io.
- Abstract(参考訳): DexYCBは、オブジェクトのハンドグルーピングをキャプチャする新しいデータセットである。
最初に、DexYCBと関連するものを比較する。
次に,2次元オブジェクトとキーポイント検出,6次元オブジェクトのポーズ推定,3次元ハンドポーズ推定という3つの課題に対する最先端手法の詳細なベンチマークを示す。
最後に、人間とロボットのオブジェクトのハンドオーバにおいて、安全なロボットグリップを生成するという新しいロボット関連タスクを評価する。
データセットとコードはhttps://dex-ycb.github.ioで入手できる。
関連論文リスト
- Spot-Compose: A Framework for Open-Vocabulary Object Retrieval and Drawer Manipulation in Point Clouds [45.87961177297602]
この研究は、人間中心環境におけるロボットのインタラクションと操作のための包括的なフレームワークに、最近の手法を統合することを目的としている。
具体的には,コモディティ3Dスキャナの3次元再構成をオープン語彙のインスタンスセグメンテーションに活用する。
本研究では,動的オブジェクト検索と引き出し開口を含む実世界の2つの実験において,モデルの性能とロバスト性を示す。
論文 参考訳(メタデータ) (2024-04-18T18:01:15Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - SHOWMe: Benchmarking Object-agnostic Hand-Object 3D Reconstruction [13.417086460511696]
96本の動画からなるSHOWMeデータセットについて,実物と詳細な3Dテクスチャメッシュで注釈付けした。
我々は、手の動きがビデオシーケンス全体を通して一定である厳密な手オブジェクトのシナリオを考察する。
この仮定により、SHOWMeの画像シーケンスにサブミリメートル精度の基底3Dスキャンを登録できる。
論文 参考訳(メタデータ) (2023-09-19T16:48:29Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - HandoverSim: A Simulation Framework and Benchmark for Human-to-Robot
Object Handovers [60.45158007016316]
HandoverSimは、人間からロボットへのオブジェクトハンドオーバのシミュレーションベンチマークである。
我々は、物体の手でのつかみの最近のモーションキャプチャーデータセットを活用する。
標準化されたプロトコルとメトリクスを使って受信機のトレーニングと評価環境を作成します。
論文 参考訳(メタデータ) (2022-05-19T17:59:00Z) - ARCTIC: A Dataset for Dexterous Bimanual Hand-Object Manipulation [68.80339307258835]
ARCTICは、オブジェクトを巧みに操作する両手のデータセットである。
正確な3Dハンドメッシュと、詳細でダイナミックな接触情報を組み合わせた2.1Mビデオフレームを含んでいる。
論文 参考訳(メタデータ) (2022-04-28T17:23:59Z) - Indoor Semantic Scene Understanding using Multi-modality Fusion [0.0]
本研究では,環境のセマンティックマップを生成するために,2次元および3次元検出枝を融合したセマンティックシーン理解パイプラインを提案する。
収集したデータセットで評価された以前の研究とは異なり、私たちはアクティブなフォトリアリスティックなロボット環境でパイプラインをテストする。
我々の新規性には、投影された2次元検出とオブジェクトサイズに基づくモダリティ融合を用いた3次元提案の修正が含まれる。
論文 参考訳(メタデータ) (2021-08-17T13:30:02Z) - H2O: Two Hands Manipulating Objects for First Person Interaction
Recognition [70.46638409156772]
両手操作対象のマーカーレス3Dアノテーションを用いて,エゴセントリックな対話認識のための包括的なフレームワークを提案する。
本手法は,2つの手の3次元ポーズと操作対象の6次元ポーズのアノテーションと,それぞれのフレームのインタラクションラベルを生成する。
我々のデータセットは、H2O (2 Hands and Objects)と呼ばれ、同期されたマルチビューRGB-D画像、対話ラベル、オブジェクトクラス、左右の手でのグラウンドトルース3Dポーズ、6Dオブジェクトポーズ、グラウンドトルースカメラポーズ、オブジェクトメッシュ、シーンポイントクラウドを提供する。
論文 参考訳(メタデータ) (2021-04-22T17:10:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。