論文の概要: YCB-Ev: Event-vision dataset for 6DoF object pose estimation
- arxiv url: http://arxiv.org/abs/2309.08482v1
- Date: Fri, 15 Sep 2023 15:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 14:02:13.041823
- Title: YCB-Ev: Event-vision dataset for 6DoF object pose estimation
- Title(参考訳): ycb-ev: 6dofオブジェクトポーズ推定のためのイベントビジョンデータセット
- Authors: Pavel Rojtberg, Thomas P\"ollabauer
- Abstract要約: このデータセットは、YCB-Videoデータセットで使用されるのと同じ21のYCBオブジェクトに対して、6DoFオブジェクトのポーズを提供する。
データセットは21の同期イベントとRGB-Dシーケンスで構成される。
我々は,新しいYCB-Vシークエンスを用いて,BOPチャレンジのために事前訓練された2つの最先端アルゴリズムの一般化能力を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Our work introduces the YCB-Ev dataset, which contains synchronized RGB-D
frames and event data that enables evaluating 6DoF object pose estimation
algorithms using these modalities.
This dataset provides ground truth 6DoF object poses for the same 21 YCB
objects \cite{calli2017yale} that were used in the YCB-Video (YCB-V) dataset,
enabling the evaluation of algorithm performance when transferred across
datasets.
The dataset consists of 21 synchronized event and RGB-D sequences, amounting
to a total of 7:43 minutes of video. Notably, 12 of these sequences feature the
same object arrangement as the YCB-V subset used in the BOP challenge.
Our dataset is the first to provide ground truth 6DoF pose data for event
streams. Furthermore, we evaluate the generalization capabilities of two
state-of-the-art algorithms, which were pre-trained for the BOP challenge,
using our novel YCB-V sequences.
The proposed dataset is available at https://github.com/paroj/ycbev.
- Abstract(参考訳): 本研究は,同期RGB-Dフレームとイベントデータを含むYCB-Evデータセットを導入し,これらのモダリティを用いた6DoFオブジェクトポーズ推定アルゴリズムの評価を可能にする。
このデータセットは、YCB-Video (YCB-V)データセットで使用された21のYCBオブジェクト \cite{calli2017yale} に対して、6DoFオブジェクトのポーズを提供する。
データセットは21の同期イベントとrgb-dシーケンスで構成されており、合計7:43分のビデオである。
特に12の配列は、BOPチャレンジで使用されるYCB-Vサブセットと同じオブジェクト配列である。
私たちのデータセットは、イベントストリームに6DoFのポーズデータを提供する最初のものです。
さらに,新しいYCB-Vシーケンスを用いて,BOPチャレンジのために事前学習された2つの最先端アルゴリズムの一般化能力を評価する。
提案されたデータセットはhttps://github.com/paroj/ycbevで利用可能である。
関連論文リスト
- Dataset Condensation for Time Series Classification via Dual Domain
Matching [13.456233351160725]
本研究では,textittextbfTime textittextbfSeries textittextbfClassificationをDual Domain Matching経由で生成する新しいフレームワークであるtextittextbfCondensationを提案する。
提案するフレームワークは,時間領域と周波数領域の両方のサロゲート目的にマッチする凝縮データセットを生成することを目的としている。
論文 参考訳(メタデータ) (2024-03-12T02:05:06Z) - Learning Fine-grained View-Invariant Representations from Unpaired
Ego-Exo Videos via Temporal Alignment [71.16699226211504]
我々は,エゴセントリックな映像とエゴセントリックな映像を時間内に整列させることにより,視点に不変なきめ細かいアクション特徴を学習することを提案する。
そこで本研究では,2つの鍵設計を持つ自己教師型埋め込み手法であるAE2を提案する。
評価のために,エゴ・エクソ・コンテキストにおけるきめ細かい映像理解のためのベンチマークを構築した。
論文 参考訳(メタデータ) (2023-06-08T19:54:08Z) - A Bag-of-Prototypes Representation for Dataset-Level Applications [24.629132557336312]
本研究では,データセットレベルの2つのタスクに対するデータセットベクトル化について検討する。
本稿では,パッチ記述子からなるイメージレベルバッグを,セマンティックプロトタイプからなるデータセットレベルバッグに拡張する,Bop-of-prototypes(BoP)データセット表現を提案する。
BoPは、2つのデータセットレベルのタスクに対する一連のベンチマークにおいて、既存の表現に対する優位性を一貫して示している。
論文 参考訳(メタデータ) (2023-03-23T13:33:58Z) - StereOBJ-1M: Large-scale Stereo Image Dataset for 6D Object Pose
Estimation [43.839322860501596]
本稿では,大規模なステレオRGB画像オブジェクトのポーズ推定データセットであるtextbfStereOBJ-1M$データセットを提案する。
このデータセットは、オブジェクトの透明性、透過性、スペキュラリフレクションといった困難なケースに対処するように設計されている。
複雑で柔軟な環境でデータをキャプチャできる多視点方式でポーズデータを効率的にアノテートする新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-21T11:56:38Z) - Shot boundary detection method based on a new extensive dataset and
mixed features [68.8204255655161]
ビデオにおけるショット境界検出は、ビデオデータ処理の重要な段階の1つである。
カラーヒストグラムや物体境界などの映像特徴に基づくショット境界検出法が提案されている。
論文 参考訳(メタデータ) (2021-09-02T16:19:24Z) - Cross-Dataset Collaborative Learning for Semantic Segmentation [17.55660581677053]
我々は、Cross-Dataset Collaborative Learning (CDCL) と呼ばれる、単純で柔軟で汎用的なセマンティックセグメンテーション手法を提案する。
複数のラベル付きデータセットを付与することで、各データセット上の特徴表現の一般化と識別を改善することを目指しています。
単一データセットとクロスデータセットの設定で,Cityscapes,BDD100K,CamVid,COCO Stuffという4つの多様なデータセットに対して,広範な評価を行う。
論文 参考訳(メタデータ) (2021-03-21T09:59:47Z) - Personal Fixations-Based Object Segmentation with Object Localization
and Boundary Preservation [60.41628937597989]
我々はPFOS(Personal Fixations-based Object)に着目し,過去の研究の課題に対処する。
視線オブジェクトをセグメント化するオブジェクトローカリゼーションと境界保存(OLBP)に基づく新しいネットワークを提案する。
OLBPは複数のタイプの深い監督の混合されたボトムアップおよびトップダウンの方法で整理されます。
論文 参考訳(メタデータ) (2021-01-22T09:20:47Z) - Collaborative Video Object Segmentation by Multi-Scale
Foreground-Background Integration [77.71512243438329]
本稿では,フォアグラウンド・バックグラウンド統合(CFBI)による協調的ビデオオブジェクトセグメンテーションを提案する。
CFBIは、前景のオブジェクト領域とその対応する背景領域に埋め込まれた特徴を分離し、暗黙的にそれらをよりコントラストにし、それに応じてセグメンテーション結果を改善する。
CFBIをベースとして,マルチスケールのマッチング構造を導入し,より堅牢で効率的なフレームワークであるCFBI+を実現するAtrous Matching戦略を提案する。
論文 参考訳(メタデータ) (2020-10-13T13:06:10Z) - YCB-M: A Multi-Camera RGB-D Dataset for Object Recognition and 6DoF Pose
Estimation [2.9972063833424216]
7つの異なる3Dカメラで撮影され、合計49,294フレームで撮影された32のシーンのデータセットを提示する。
これにより、使用するカメラの仕様に対するポーズ推定アルゴリズムの感度を評価することができる。
論文 参考訳(メタデータ) (2020-04-24T11:14:04Z) - EPOS: Estimating 6D Pose of Objects with Symmetries [57.448933686429825]
1つのRGB入力から利用可能な3次元モデルを用いて、剛体物体の6次元ポーズを推定する新しい手法を提案する。
オブジェクトは、体系的な方法で対称性を許容するコンパクトな表面フラグメントによって表現される。
エンコーダデコーダネットワークを用いて,高密度サンプリング画素とフラグメントの対応性を予測する。
論文 参考訳(メタデータ) (2020-04-01T17:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。