論文の概要: OpenPack: A Large-scale Dataset for Recognizing Packaging Works in
IoT-enabled Logistic Environments
- arxiv url: http://arxiv.org/abs/2212.11152v1
- Date: Sat, 10 Dec 2022 13:01:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 03:02:12.757099
- Title: OpenPack: A Large-scale Dataset for Recognizing Packaging Works in
IoT-enabled Logistic Environments
- Title(参考訳): openpack:iot対応ロジスティック環境でパッケージング動作を認識するための大規模データセット
- Authors: Naoya Yoshimura, Jaime Morales, Takuya Maekawa, Takahiro Hara
- Abstract要約: 我々は,OpenPackと呼ばれる作業認識のための大規模データセットを新たに導入する。
OpenPackには、キーポイント、ディープイメージ、アクセラレーションデータ、IoT対応デバイスからの読み取りを含む53.8時間のマルチモーダルセンサーデータが含まれている。
作業活動を認識するために設計されたニューラルネットワークモデルを提案し,IoT対応デバイスからのセンサデータと読み出しを効率的に融合する。
- 参考スコア(独自算出の注目度): 8.768596127212664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike human daily activities, existing publicly available sensor datasets
for work activity recognition in industrial domains are limited by difficulties
in collecting realistic data as close collaboration with industrial sites is
required. This also limits research on and development of AI methods for
industrial applications. To address these challenges and contribute to research
on machine recognition of work activities in industrial domains, in this study,
we introduce a new large-scale dataset for packaging work recognition called
OpenPack. OpenPack contains 53.8 hours of multimodal sensor data, including
keypoints, depth images, acceleration data, and readings from IoT-enabled
devices (e.g., handheld barcode scanners used in work procedures), collected
from 16 distinct subjects with different levels of packaging work experience.
On the basis of this dataset, we propose a neural network model designed to
recognize work activities, which efficiently fuses sensor data and readings
from IoT-enabled devices by processing them within different streams in a
ladder-shaped architecture, and the experiment showed the effectiveness of the
architecture. We believe that OpenPack will contribute to the community of
action/activity recognition with sensors. OpenPack dataset is available at
https://open-pack.github.io/.
- Abstract(参考訳): ヒトの日常的活動とは異なり、産業領域における作業活動認識のための既存のセンサデータセットは、産業現場との密接な連携が求められるため、現実的なデータ収集の困難さによって制限されている。
これにより、産業応用のためのAI手法の研究と開発も制限される。
そこで本研究では,これらの課題に対処し,産業領域における作業活動の機械的認識に関する研究に寄与するため,OpenPackと呼ばれる大規模な作業認識データセットを導入する。
OpenPackには、キーポイント、深度画像、加速度データ、IoT対応デバイス(例えば、作業手順で使用されるハンドヘルドバーコードスキャナ)からの読み取りを含む53.8時間のマルチモーダルセンサーデータが含まれている。
このデータセットに基づいて,iot対応デバイスからセンサデータや読み出しを,はしご型アーキテクチャで異なるストリーム内で処理することにより効率的に融合する作業アクティビティを認識可能なニューラルネットワークモデルを提案し,そのアーキテクチャの有効性を示す。
openpackはセンサによるアクション/アクティビティ認識のコミュニティに貢献すると思います。
openpack datasetはhttps://open-pack.github.io/で入手できる。
関連論文リスト
- A Multimodal Dataset for Enhancing Industrial Task Monitoring and Engagement Prediction [5.73110247142357]
現実的なアセンブリと分解タスクをキャプチャする新しいデータセットを提案する。
データセットは、22セッションから収集されたマルチビューRGB、深さ、慣性測定ユニット(IMU)データを含み、未トリミングビデオの290分に相当する。
提案手法は, 動的産業環境におけるオペレータのパフォーマンス監視のための堅牢なソリューションとして, エンゲージメント状態の認識精度を向上させる。
論文 参考訳(メタデータ) (2025-01-10T12:57:33Z) - CoPeD-Advancing Multi-Robot Collaborative Perception: A Comprehensive Dataset in Real-World Environments [8.177157078744571]
本稿では,先駆的で包括的な実世界のマルチロボット協調認識データセットを提案する。
生のセンサー入力、ポーズ推定、オプションのハイレベル認識アノテーションが特徴である。
この研究は、マルチロボット設定におけるマルチモーダル協調認識を通して、ハイレベルなシーン理解の潜在的研究を解き放つだろうと考えている。
論文 参考訳(メタデータ) (2024-05-23T15:59:48Z) - IPAD: Industrial Process Anomaly Detection Dataset [71.39058003212614]
ビデオ異常検出(VAD)は,ビデオフレーム内の異常を認識することを目的とした課題である。
本稿では,産業シナリオにおけるVADに特化して設計された新しいデータセットIPADを提案する。
このデータセットは16の異なる産業用デバイスをカバーし、合成ビデオと実世界のビデオの両方を6時間以上保存している。
論文 参考訳(メタデータ) (2024-04-23T13:38:01Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - DOO-RE: A dataset of ambient sensors in a meeting room for activity
recognition [2.2939897247190886]
環境センサを備えた会議室から収集したデータセットを構築した。
データセットであるDOO-REには、SoundやProductorなど、さまざまな環境センサタイプからのデータストリームが含まれている。
私たちの知る限りでは、DOO-REは信頼できるアノテーションを備えた実際の会議室で、シングルアクティビティとグループアクティビティの両方の認識をサポートする最初のデータセットです。
論文 参考訳(メタデータ) (2024-01-17T04:21:04Z) - Capture the Flag: Uncovering Data Insights with Large Language Models [90.47038584812925]
本研究では,Large Language Models (LLMs) を用いてデータの洞察の発見を自動化する可能性について検討する。
そこで本稿では,データセット内の意味的かつ関連する情報(フラグ)を識別する能力を測定するために,フラグを捕捉する原理に基づく新しい評価手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T14:20:06Z) - Towards Packaging Unit Detection for Automated Palletizing Tasks [5.235268087662475]
本稿では、合成データに基づいて完全に訓練されたこの課題に対するアプローチを提案する。
提案手法はスパースおよび低品質センサデータを扱うことができる。
我々は、さまざまな小売商品で現実世界のデータについて広範な評価を行う。
論文 参考訳(メタデータ) (2023-08-11T15:37:38Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Single-Modal Entropy based Active Learning for Visual Question Answering [75.1682163844354]
視覚質問応答(VQA)のマルチモーダル設定におけるアクティブラーニングに対処する
マルチモーダルな入力,画像,質問を考慮し,有効サンプル取得のための新しい手法を提案する。
私たちの新しいアイデアは、実装が簡単で、コスト効率が高く、他のマルチモーダルタスクにも容易に適応できます。
論文 参考訳(メタデータ) (2021-10-21T05:38:45Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - IMUTube: Automatic Extraction of Virtual on-body Accelerometry from
Video for Human Activity Recognition [12.91206329972949]
IMUTubeは、人間の活動の映像をIMUデータの仮想ストリームに変換する自動処理パイプラインである。
これらの仮想IMUストリームは、人体の様々な場所で加速度計を表現している。
本稿では,実際のIMUデータにより,既知のHARデータセット上での各種モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-29T21:50:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。