論文の概要: A mixed-reality dataset for category-level 6D pose and size estimation
of hand-occluded containers
- arxiv url: http://arxiv.org/abs/2211.10470v1
- Date: Fri, 18 Nov 2022 19:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:48:03.607515
- Title: A mixed-reality dataset for category-level 6D pose and size estimation
of hand-occluded containers
- Title(参考訳): カテゴリーレベルの6次元ポーズのための混合現実性データセットとハンドオクルード容器のサイズ推定
- Authors: Xavier Weber, Alessio Xompero, Andrea Cavallaro
- Abstract要約: カテゴリーレベルの6次元オブジェクトのポーズとサイズ推定のための,手持ち容器の混合現実性データセットを提案する。
データセットは、レンダリングされた手と48の合成オブジェクトを保持する前腕の138,240の画像で構成され、30の実際の背景に対して3つの把握カテゴリに分けられる。
- 参考スコア(独自算出の注目度): 36.189924244458595
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Estimating the 6D pose and size of household containers is challenging due to
large intra-class variations in the object properties, such as shape, size,
appearance, and transparency. The task is made more difficult when these
objects are held and manipulated by a person due to varying degrees of hand
occlusions caused by the type of grasps and by the viewpoint of the camera
observing the person holding the object. In this paper, we present a
mixed-reality dataset of hand-occluded containers for category-level 6D object
pose and size estimation. The dataset consists of 138,240 images of rendered
hands and forearms holding 48 synthetic objects, split into 3 grasp categories
over 30 real backgrounds. We re-train and test an existing model for 6D object
pose estimation on our mixed-reality dataset. We discuss the impact of the use
of this dataset in improving the task of 6D pose and size estimation.
- Abstract(参考訳): 形状,サイズ,外観,透明度などの物体特性のクラス内変化が大きいため,家庭用容器の6Dポーズとサイズを推定することは困難である。
この作業は、握りの種類や被写体を観察するカメラの視点によって、手の閉塞の度合いが異なるため、被写体を保持・操作することがより困難になる。
本稿では,カテゴリレベルの6Dオブジェクトのポーズとサイズ推定のための,手持ち容器の混合現実性データセットを提案する。
データセットは、レンダリングされた手と48の合成オブジェクトを保持する前腕の138,240の画像で構成され、30の実際の背景に対して3つの把握カテゴリに分けられる。
混合現実データを用いた6次元物体ポーズ推定のための既存モデルの再訓練とテストを行った。
本稿では,このデータセットを用いた6次元ポーズとサイズ推定のタスク改善の効果について考察する。
関連論文リスト
- Omni6DPose: A Benchmark and Model for Universal 6D Object Pose Estimation and Tracking [9.365544189576363]
6D Object Pose Estimationは、大規模なデータセットの不足に悩まされているコンピュータビジョンにおいて、決定的に難しいタスクである。
本稿では,Omni6DPoseについて紹介する。Omni6DPoseは,オブジェクトのカテゴリ,大規模,多様性の多様性を特徴とするデータセットである。
我々は、SOTAカテゴリレベルのポーズ推定フレームワークの強化版であるGenPose++を紹介し、2つの重要な改善を取り入れた。
論文 参考訳(メタデータ) (2024-06-06T17:57:20Z) - HouseCat6D -- A Large-Scale Multi-Modal Category Level 6D Object
Perception Dataset with Household Objects in Realistic Scenarios [41.54851386729952]
新しいカテゴリレベルの6DポーズデータセットであるHouseCat6Dを紹介する。
1) ポラリメトリック RGB と Depth (RGBD+P) によるマルチモダリティ、2) フォトメトリックに挑戦する2つのカテゴリを含む10のカテゴリにわたる194の多様なオブジェクトを含み、3) エラー範囲が 1.35 mm から 1.74 mm である高品質なポーズアノテーションを提供する。
論文 参考訳(メタデータ) (2022-12-20T17:06:32Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Imitrob: Imitation Learning Dataset for Training and Evaluating 6D
Object Pose Estimators [20.611000416051546]
本稿では,標準RGBカメラで捉えたタスクデモにおける手持ちツールの6次元ポーズ推定のためのトレーニングと評価のためのデータセットを提案する。
このデータセットには、9つの異なるツールと12の操作タスクのイメージシーケンスが含まれており、2つのカメラ視点、4人の被写体、そして左右手である。
論文 参考訳(メタデータ) (2022-09-16T14:43:46Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - PhoCaL: A Multi-Modal Dataset for Category-Level Object Pose Estimation
with Photometrically Challenging Objects [45.31344700263873]
我々は、PhoCaLと呼ばれる光度に挑戦するオブジェクトを用いたカテゴリレベルのオブジェクトポーズ推定のためのマルチモーダルデータセットを提案する。
PhoCaLは、高い反射率、透明度、対称度を含む8種類以上の家庭用品の60種類の高品質な3Dモデルで構成されている。
これにより、不透明で光沢のある透明な物体のポーズのサブミリ秒精度が保証され、動きのぼやけも無く、カメラの同期も完璧になる。
論文 参考訳(メタデータ) (2022-05-18T09:21:09Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - SHREC 2020 track: 6D Object Pose Estimation [26.4781238445338]
6Dのポーズ推定は、拡張現実、仮想現実、ロボット操作、視覚ナビゲーションに不可欠である。
異なるポーズ推定法は特徴表現やシーン内容によって異なる長所と短所を持つ。
データ駆動方式で6Dポーズを推定する既存の3Dデータセットには、視野角と解像度が制限されている。
論文 参考訳(メタデータ) (2020-10-19T09:45:42Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。