論文の概要: IKEA Object State Dataset: A 6DoF object pose estimation dataset and
benchmark for multi-state assembly objects
- arxiv url: http://arxiv.org/abs/2111.08614v1
- Date: Tue, 16 Nov 2021 16:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 15:01:55.809730
- Title: IKEA Object State Dataset: A 6DoF object pose estimation dataset and
benchmark for multi-state assembly objects
- Title(参考訳): IKEAオブジェクト状態データセット:マルチステートアセンブリオブジェクトの6DoFオブジェクトポーズ推定データセットとベンチマーク
- Authors: Yongzhi Su, Mingxin Liu, Jason Rambach, Antonia Pehrson, Anton Berg,
Didier Stricker
- Abstract要約: IKEAオブジェクト状態データセットを提示する。
このデータセットには、IKEA家具3Dモデル、組み立てプロセスのRGBDビデオ、家具部品の6DoFポーズとそのバウンディングボックスが含まれている。
- 参考スコア(独自算出の注目度): 10.453816442879821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Utilizing 6DoF(Degrees of Freedom) pose information of an object and its
components is critical for object state detection tasks. We present IKEA Object
State Dataset, a new dataset that contains IKEA furniture 3D models, RGBD video
of the assembly process, the 6DoF pose of furniture parts and their bounding
box. The proposed dataset will be available at
https://github.com/mxllmx/IKEAObjectStateDataset.
- Abstract(参考訳): 6dof(degrees of freedom)を利用してオブジェクトとそのコンポーネントの情報をポーズし、オブジェクトの状態検出タスクに不可欠である。
本稿では,IKEAの家具3Dモデル,組み立てプロセスのRGBDビデオ,家具部品の6DoFポーズとそのバウンディングボックスを含む新しいデータセットであるIKEA Object State Datasetを紹介する。
提案されたデータセットはhttps://github.com/mxllmx/IKEAObjectStateDataset.comから入手できる。
関連論文リスト
- HANDAL: A Dataset of Real-World Manipulable Object Categories with Pose
Annotations, Affordances, and Reconstructions [17.9178233068395]
本稿では,カテゴリレベルのオブジェクトポーズ推定とアベイランス予測のためのHANDALデータセットを提案する。
このデータセットは、17のカテゴリで212の現実世界のオブジェクトの2.2kビデオから308kの注釈付き画像フレームで構成されている。
6-DoFカテゴリレベルのポーズ+スケール推定と関連するタスクに対するデータセットの有用性について概説する。
論文 参考訳(メタデータ) (2023-08-02T23:59:59Z) - FewSOL: A Dataset for Few-Shot Object Learning in Robotic Environments [21.393674766169543]
本稿では,オブジェクト認識のためのFew-Shot Object Learningデータセットについて紹介する。
私たちは、異なる視点から、オブジェクトごとに9つのRGB-D画像を持つ336の現実世界のオブジェクトをキャプチャしました。
評価結果から, ロボット環境下では, 数発の物体分類において, 改良の余地がまだ大きいことが示唆された。
論文 参考訳(メタデータ) (2022-07-06T05:57:24Z) - AU Dataset for Visuo-Haptic Object Recognition for Robots [0.0]
データセットには、視覚的、審美的、触覚的(オーディオ/バイブレーション)データが含まれている。
本報告ではデータセットの作成と構造について述べる。
論文 参考訳(メタデータ) (2021-12-27T16:15:11Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - D3D-HOI: Dynamic 3D Human-Object Interactions from Videos [49.38319295373466]
本稿では,D3D-HOIについて紹介する。D3D-HOIは3次元オブジェクトのポーズ,形状,動きを,人間と物体の相互作用の時,地上の真理アノテーションを付加したモノクロビデオのデータセットである。
我々のデータセットは、様々な現実世界のシーンとカメラの視点から捉えた、いくつかの共通したオブジェクトで構成されている。
我々は、推定された3次元人間のポーズを利用して、物体の空間的レイアウトとダイナミクスをより正確に推定する。
論文 参考訳(メタデータ) (2021-08-19T00:49:01Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - SAIL-VOS 3D: A Synthetic Dataset and Baselines for Object Detection and
3D Mesh Reconstruction from Video Data [124.2624568006391]
sail-vos 3d: フレーム毎のメッシュアノテーションを備えた合成ビデオデータセット。
また,時間モデルによる映像データから3次元メッシュを再構成するための最初のベースラインを開発した。
論文 参考訳(メタデータ) (2021-05-18T15:42:37Z) - Objectron: A Large Scale Dataset of Object-Centric Videos in the Wild
with Pose Annotations [0.0]
3Dオブジェクト検出の最先端を前進させるために、Objectronデータセットを紹介します。
データセットには、9つのカテゴリのポーズアノテーションを備えたオブジェクト中心の短いビデオが含まれ、14,819の注釈付きビデオに400万の注釈付き画像が含まれています。
論文 参考訳(メタデータ) (2020-12-18T00:34:18Z) - The IKEA ASM Dataset: Understanding People Assembling Furniture through
Actions, Objects and Pose [108.21037046507483]
IKEA ASMは300万フレーム、マルチビュー、家具組み立てビデオデータセットで、深さ、原子活動、オブジェクトセグメンテーション、人間のポーズを含む。
我々は,この課題のあるデータセット上で,映像行動認識,オブジェクトセグメンテーション,人間のポーズ推定タスクの顕著な手法をベンチマークする。
このデータセットは、マルチモーダルデータとマルチビューデータを統合してこれらのタスクをよりよく実行する、全体論的手法の開発を可能にする。
論文 参考訳(メタデータ) (2020-07-01T11:34:46Z) - MLCVNet: Multi-Level Context VoteNet for 3D Object Detection [51.45832752942529]
我々は,最先端のVoteNet上に構築された3次元オブジェクトを相関的に認識するためのマルチレベルコンテキストVoteNet(MLCVNet)を提案する。
異なるレベルのコンテキスト情報をエンコードするために,VoteNetの投票・分類段階に3つのコンテキストモジュールを導入する。
本手法は,3次元物体検出データセットの精度向上に有効な手法である。
論文 参考訳(メタデータ) (2020-04-12T19:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。