論文の概要: YCB-Ev: Event-vision dataset for 6DoF object pose estimation
- arxiv url: http://arxiv.org/abs/2309.08482v1
- Date: Fri, 15 Sep 2023 15:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 14:02:13.041823
- Title: YCB-Ev: Event-vision dataset for 6DoF object pose estimation
- Title(参考訳): ycb-ev: 6dofオブジェクトポーズ推定のためのイベントビジョンデータセット
- Authors: Pavel Rojtberg, Thomas P\"ollabauer
- Abstract要約: このデータセットは、YCB-Videoデータセットで使用されるのと同じ21のYCBオブジェクトに対して、6DoFオブジェクトのポーズを提供する。
データセットは21の同期イベントとRGB-Dシーケンスで構成される。
我々は,新しいYCB-Vシークエンスを用いて,BOPチャレンジのために事前訓練された2つの最先端アルゴリズムの一般化能力を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Our work introduces the YCB-Ev dataset, which contains synchronized RGB-D
frames and event data that enables evaluating 6DoF object pose estimation
algorithms using these modalities.
This dataset provides ground truth 6DoF object poses for the same 21 YCB
objects \cite{calli2017yale} that were used in the YCB-Video (YCB-V) dataset,
enabling the evaluation of algorithm performance when transferred across
datasets.
The dataset consists of 21 synchronized event and RGB-D sequences, amounting
to a total of 7:43 minutes of video. Notably, 12 of these sequences feature the
same object arrangement as the YCB-V subset used in the BOP challenge.
Our dataset is the first to provide ground truth 6DoF pose data for event
streams. Furthermore, we evaluate the generalization capabilities of two
state-of-the-art algorithms, which were pre-trained for the BOP challenge,
using our novel YCB-V sequences.
The proposed dataset is available at https://github.com/paroj/ycbev.
- Abstract(参考訳): 本研究は,同期RGB-Dフレームとイベントデータを含むYCB-Evデータセットを導入し,これらのモダリティを用いた6DoFオブジェクトポーズ推定アルゴリズムの評価を可能にする。
このデータセットは、YCB-Video (YCB-V)データセットで使用された21のYCBオブジェクト \cite{calli2017yale} に対して、6DoFオブジェクトのポーズを提供する。
データセットは21の同期イベントとrgb-dシーケンスで構成されており、合計7:43分のビデオである。
特に12の配列は、BOPチャレンジで使用されるYCB-Vサブセットと同じオブジェクト配列である。
私たちのデータセットは、イベントストリームに6DoFのポーズデータを提供する最初のものです。
さらに,新しいYCB-Vシーケンスを用いて,BOPチャレンジのために事前学習された2つの最先端アルゴリズムの一般化能力を評価する。
提案されたデータセットはhttps://github.com/paroj/ycbevで利用可能である。
関連論文リスト
- Evaluating Image-Based Face and Eye Tracking with Event Cameras [9.677797822200965]
イベントカメラはニューロモルフィックセンサーとしても知られており、ピクセルレベルの局所光強度の変化を捉え、非同期に生成されたイベントと呼ばれるデータを生成する。
このデータフォーマットは、高速で動く物体を撮影する際のアンダーサンプリングのような、従来のカメラで観察される一般的な問題を緩和する。
我々は、従来のアルゴリズムとイベントベースのデータを統合することにより、フレーム形式に変換される可能性を評価する。
論文 参考訳(メタデータ) (2024-08-19T20:27:08Z) - Segment Any Events via Weighted Adaptation of Pivotal Tokens [85.39087004253163]
本稿では,Segment Anything Models (SAM) をイベントデータと統合する上で,難易度の高い課題に焦点を当てる。
本稿では,RGB画像とイベントデータからのトークン埋め込みのアライメントを最適化するマルチスケールな特徴蒸留手法を提案する。
論文 参考訳(メタデータ) (2023-12-24T12:47:08Z) - A Bag-of-Prototypes Representation for Dataset-Level Applications [24.629132557336312]
本研究では,データセットレベルの2つのタスクに対するデータセットベクトル化について検討する。
本稿では,パッチ記述子からなるイメージレベルバッグを,セマンティックプロトタイプからなるデータセットレベルバッグに拡張する,Bop-of-prototypes(BoP)データセット表現を提案する。
BoPは、2つのデータセットレベルのタスクに対する一連のベンチマークにおいて、既存の表現に対する優位性を一貫して示している。
論文 参考訳(メタデータ) (2023-03-23T13:33:58Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - A Neuromorphic Dataset for Object Segmentation in Indoor Cluttered
Environment [3.6047642906482142]
本稿では,屋内環境におけるオブジェクトセグメンテーションのためのイベントベースESDデータセットを提案する。
提案するデータセットは,145のシーケンスと14,166のRGBフレームから構成される。
ステレオグラフィック構成で2つのイベントベースのカメラから2188万と2080万のイベントが収集されている。
論文 参考訳(メタデータ) (2023-02-13T12:02:51Z) - Event-Based Frame Interpolation with Ad-hoc Deblurring [68.97825675372354]
本稿では,入力ビデオのアドホックを損なうイベントベースフレームの一般的な手法を提案する。
我々のネットワークは、フレーム上の最先端の手法、単一画像のデブロアリング、および共同作業のデブロアリングを一貫して上回ります。
コードとデータセットは公開されます。
論文 参考訳(メタデータ) (2023-01-12T18:19:00Z) - StereOBJ-1M: Large-scale Stereo Image Dataset for 6D Object Pose
Estimation [43.839322860501596]
本稿では,大規模なステレオRGB画像オブジェクトのポーズ推定データセットであるtextbfStereOBJ-1M$データセットを提案する。
このデータセットは、オブジェクトの透明性、透過性、スペキュラリフレクションといった困難なケースに対処するように設計されている。
複雑で柔軟な環境でデータをキャプチャできる多視点方式でポーズデータを効率的にアノテートする新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-21T11:56:38Z) - YCB-M: A Multi-Camera RGB-D Dataset for Object Recognition and 6DoF Pose
Estimation [2.9972063833424216]
7つの異なる3Dカメラで撮影され、合計49,294フレームで撮影された32のシーンのデータセットを提示する。
これにより、使用するカメラの仕様に対するポーズ推定アルゴリズムの感度を評価することができる。
論文 参考訳(メタデータ) (2020-04-24T11:14:04Z) - EPOS: Estimating 6D Pose of Objects with Symmetries [57.448933686429825]
1つのRGB入力から利用可能な3次元モデルを用いて、剛体物体の6次元ポーズを推定する新しい手法を提案する。
オブジェクトは、体系的な方法で対称性を許容するコンパクトな表面フラグメントによって表現される。
エンコーダデコーダネットワークを用いて,高密度サンプリング画素とフラグメントの対応性を予測する。
論文 参考訳(メタデータ) (2020-04-01T17:41:08Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。