論文の概要: YCB-M: A Multi-Camera RGB-D Dataset for Object Recognition and 6DoF Pose
Estimation
- arxiv url: http://arxiv.org/abs/2004.11657v2
- Date: Tue, 29 Sep 2020 07:58:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 04:10:33.154487
- Title: YCB-M: A Multi-Camera RGB-D Dataset for Object Recognition and 6DoF Pose
Estimation
- Title(参考訳): YCB-M:オブジェクト認識と6DoF推定のためのマルチカメラRGB-Dデータセット
- Authors: Till Grenzd\"orffer, Martin G\"unther and Joachim Hertzberg
- Abstract要約: 7つの異なる3Dカメラで撮影され、合計49,294フレームで撮影された32のシーンのデータセットを提示する。
これにより、使用するカメラの仕様に対するポーズ推定アルゴリズムの感度を評価することができる。
- 参考スコア(独自算出の注目度): 2.9972063833424216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While a great variety of 3D cameras have been introduced in recent years,
most publicly available datasets for object recognition and pose estimation
focus on one single camera. In this work, we present a dataset of 32 scenes
that have been captured by 7 different 3D cameras, totaling 49,294 frames. This
allows evaluating the sensitivity of pose estimation algorithms to the
specifics of the used camera and the development of more robust algorithms that
are more independent of the camera model. Vice versa, our dataset enables
researchers to perform a quantitative comparison of the data from several
different cameras and depth sensing technologies and evaluate their algorithms
before selecting a camera for their specific task. The scenes in our dataset
contain 20 different objects from the common benchmark YCB object and model set
[1], [2]. We provide full ground truth 6DoF poses for each object, per-pixel
segmentation, 2D and 3D bounding boxes and a measure of the amount of occlusion
of each object. We have also performed an initial evaluation of the cameras
using our dataset on a state-of-the-art object recognition and pose estimation
system [3].
- Abstract(参考訳): 近年,多種多様な3Dカメラが紹介されているが,オブジェクト認識とポーズ推定のためのデータセットが最も広く公開されている。
本研究では,7つの異なる3dカメラで撮影された32シーンのデータセットを,合計49,294フレームで提示する。
これにより、使用済みカメラの仕様に対するポーズ推定アルゴリズムの感度を評価し、カメラモデルからより独立したより堅牢なアルゴリズムを開発することができる。
逆に、我々のデータセットは、研究者が複数の異なるカメラと深度センシング技術からのデータを定量的に比較し、特定のタスクのためにカメラを選択する前にアルゴリズムを評価することができる。
データセットのシーンには、共通ベンチマークYCBオブジェクトとモデルセット[1],[2]の20の異なるオブジェクトが含まれています。
各被写体に対する6dofポーズ,ピクセル単位の分割,2dおよび3dバウンディングボックス,および各被写体の閉塞量の測定値を提供する。
我々はまた、最先端のオブジェクト認識とポーズ推定システム[3]上で、データセットを用いてカメラの初期評価を行った。
関連論文リスト
- LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - A Critical Analysis of Image-based Camera Pose Estimation Techniques [18.566761146552537]
カメラのローカライゼーションは、自律運転、ロボットナビゲーション、拡張現実(AR)など、多くのコンピュータビジョン分野に恩恵をもたらす可能性がある
本調査では,まず,異なるサブタスクに応じて,カメラのローカライゼーションポーズの特定の適用領域と評価指標を紹介する。
論文 参考訳(メタデータ) (2022-01-15T09:57:45Z) - MonoCInIS: Camera Independent Monocular 3D Object Detection using
Instance Segmentation [55.96577490779591]
大規模で異質なトレーニングデータを活用するためには、"カメラ独立"の度合いが必要である。
大規模で異質なトレーニングデータの恩恵を受けるためには、より多くのデータがパフォーマンスを自動で保証するのではなく、"カメラ独立"の度合いを持つ必要がある。
論文 参考訳(メタデータ) (2021-10-01T14:56:37Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - CosyPose: Consistent multi-view multi-object 6D pose estimation [48.097599674329004]
単視点単体6次元ポーズ推定法を提案し、6次元オブジェクトのポーズ仮説を生成する。
第2に、異なる入力画像間で個々の6次元オブジェクトのポーズをマッチングするロバストな手法を開発する。
第3に、複数のオブジェクト仮説とそれらの対応性を考慮したグローバルなシーン改善手法を開発した。
論文 参考訳(メタデータ) (2020-08-19T14:11:56Z) - SIDOD: A Synthetic Image Dataset for 3D Object Pose Recognition with
Distractors [10.546457120988494]
このデータセットには144kのステレオ画像ペアが含まれており、最大10個のオブジェクトと3つのフォトリアリスティック仮想環境の18のカメラ視点を合成的に組み合わせている。
ドメインのランダム化に対する我々のアプローチを説明し、データセットを作成した決定について考察する。
論文 参考訳(メタデータ) (2020-08-12T00:14:19Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。