論文の概要: Event-based dataset for the detection and classification of manufacturing assembly tasks
- arxiv url: http://arxiv.org/abs/2405.14626v1
- Date: Thu, 23 May 2024 14:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 14:35:49.627612
- Title: Event-based dataset for the detection and classification of manufacturing assembly tasks
- Title(参考訳): 製造組み立て作業の検出と分類のためのイベントベースデータセット
- Authors: Laura Duarte, Pedro Neto,
- Abstract要約: このデータセットは、あらゆる製造組立体において人間の操作者が行う製造原始的なタスク(アイドル、ピック、プレース、ネジ)の選択を示す。
DAVIS240Cイベントカメラは、光強度値の変化が発生した時にイベントを登録する非同期視覚センサである。
各製造プリミティブは、合計400のサンプルに対して、イベントやグレースケールフレームを含むDAVIS240Cデータの100のサンプルを記録している。
- 参考スコア(独自算出の注目度): 0.2455468619225742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The featured dataset, the Event-based Dataset of Assembly Tasks (EDAT24), showcases a selection of manufacturing primitive tasks (idle, pick, place, and screw), which are basic actions performed by human operators in any manufacturing assembly. The data were captured using a DAVIS240C event camera, an asynchronous vision sensor that registers events when changes in light intensity value occur. Events are a lightweight data format for conveying visual information and are well-suited for real-time detection and analysis of human motion. Each manufacturing primitive has 100 recorded samples of DAVIS240C data, including events and greyscale frames, for a total of 400 samples. In the dataset, the user interacts with objects from the open-source CT-Benchmark in front of the static DAVIS event camera. All data are made available in raw form (.aedat) and in pre-processed form (.npy). Custom-built Python code is made available together with the dataset to aid researchers to add new manufacturing primitives or extend the dataset with more samples.
- Abstract(参考訳): 特徴付けられたデータセットであるEvent-based Dataset of Assembly Tasks (EDAT24)は、製造のプリミティブなタスク(アイドル、ピック、プレース、ネジ)を選択できる。
DAVIS240Cイベントカメラは、光強度値の変化が発生した時にイベントを登録する非同期視覚センサである。
イベントは視覚情報を伝達するための軽量なデータフォーマットであり、人間の動きのリアルタイム検出と分析に適している。
各製造プリミティブは、合計400のサンプルに対して、イベントやグレースケールフレームを含むDAVIS240Cデータの100のサンプルを記録している。
データセットでは、ユーザは静的なDAVISイベントカメラの前で、オープンソースのCT-Benchmarkのオブジェクトと対話する。
すべてのデータは生の形式(.aedat)と前処理形式(.npy)で利用可能である。
カスタムビルドされたPythonコードはデータセットとともに利用可能で、研究者が新しい製造プリミティブを追加したり、より多くのサンプルでデータセットを拡張するのに役立つ。
関連論文リスト
- Evaluating Image-Based Face and Eye Tracking with Event Cameras [9.677797822200965]
イベントカメラはニューロモルフィックセンサーとしても知られており、ピクセルレベルの局所光強度の変化を捉え、非同期に生成されたイベントと呼ばれるデータを生成する。
このデータフォーマットは、高速で動く物体を撮影する際のアンダーサンプリングのような、従来のカメラで観察される一般的な問題を緩和する。
我々は、従来のアルゴリズムとイベントベースのデータを統合することにより、フレーム形式に変換される可能性を評価する。
論文 参考訳(メタデータ) (2024-08-19T20:27:08Z) - MEVDT: Multi-Modal Event-Based Vehicle Detection and Tracking Dataset [1.5837772594006034]
本稿では,Multi-Modal Event-based Vehicle Detection and Tracking (MEVDT)データセットを紹介する。
このデータセットは、Dynamic and Active-Pixel Vision Sensor (DAVIS) 240cハイブリッドイベントセンサを使用してキャプチャされた、イベントデータの同期ストリームとトラフィックシーンのグレースケールイメージを提供する。
論文 参考訳(メタデータ) (2024-07-29T22:57:20Z) - DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - ContextLabeler Dataset: physical and virtual sensors data collected from
smartphone usage in-the-wild [7.310043452300736]
本稿では,データ収集キャンペーンと,スマートフォンセンサから得られたデータセットについて述べる。
収集されたデータセットは、新しいコンテキスト認識ソリューションの幅広いセットを定義し評価するために、実際のデータの有用なソースである。
論文 参考訳(メタデータ) (2023-07-07T13:28:29Z) - Revisiting Color-Event based Tracking: A Unified Network, Dataset, and
Metric [53.88188265943762]
上記の機能を同時に実現したCEUTrack(Color-Event Unified Tracking)のためのシングルステージバックボーンネットワークを提案する。
提案するCEUTrackはシンプルで,効率的で,75FPS以上を達成し,新たなSOTA性能を実現している。
論文 参考訳(メタデータ) (2022-11-20T16:01:31Z) - Robust Event Classification Using Imperfect Real-world PMU Data [58.26737360525643]
本研究では,不完全な実世界のファサー計測単位(PMU)データを用いて,ロバストな事象分類について検討する。
我々は、堅牢なイベント分類器を訓練するための新しい機械学習フレームワークを開発する。
論文 参考訳(メタデータ) (2021-10-19T17:41:43Z) - Omnidata: A Scalable Pipeline for Making Multi-Task Mid-Level Vision
Datasets from 3D Scans [103.92680099373567]
本稿では,実世界の包括的3Dスキャンからマルチタスク視覚データセットをパラメトリックサンプリングし,レンダリングするパイプラインを提案する。
サンプリングパラメータを変更することで、生成されたデータセットを“ステア”して、特定の情報を強調することが可能になる。
生成されたスタータデータセットでトレーニングされた共通アーキテクチャは、複数の共通ビジョンタスクとベンチマークで最先端のパフォーマンスに達した。
論文 参考訳(メタデータ) (2021-10-11T04:21:46Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - SynPick: A Dataset for Dynamic Bin Picking Scene Understanding [25.706613724135046]
ビンピッキングシナリオにおける動的シーン理解のための合成データセットであるSynPickを提案する。
既存のデータセットとは対照的に、私たちのデータセットはどちらも現実的な産業アプリケーションドメイン内にあります。
データセットは人気のあるBOPデータセットフォーマットと互換性がある。
論文 参考訳(メタデータ) (2021-07-10T14:58:43Z) - Speak2Label: Using Domain Knowledge for Creating a Large Scale Driver
Gaze Zone Estimation Dataset [55.391532084304494]
ワイルド・データセットのドライバ・ゲイズには、夕方を含む1日の異なる時間に撮影された586の録音が含まれている。
ワイルド・データセットのドライバ・ゲイズには338人の被験者がおり、年齢は18-63歳である。
論文 参考訳(メタデータ) (2020-04-13T14:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。