論文の概要: OpenPack: A Large-scale Dataset for Recognizing Packaging Works in
IoT-enabled Logistic Environments
- arxiv url: http://arxiv.org/abs/2212.11152v1
- Date: Sat, 10 Dec 2022 13:01:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 03:02:12.757099
- Title: OpenPack: A Large-scale Dataset for Recognizing Packaging Works in
IoT-enabled Logistic Environments
- Title(参考訳): openpack:iot対応ロジスティック環境でパッケージング動作を認識するための大規模データセット
- Authors: Naoya Yoshimura, Jaime Morales, Takuya Maekawa, Takahiro Hara
- Abstract要約: 我々は,OpenPackと呼ばれる作業認識のための大規模データセットを新たに導入する。
OpenPackには、キーポイント、ディープイメージ、アクセラレーションデータ、IoT対応デバイスからの読み取りを含む53.8時間のマルチモーダルセンサーデータが含まれている。
作業活動を認識するために設計されたニューラルネットワークモデルを提案し,IoT対応デバイスからのセンサデータと読み出しを効率的に融合する。
- 参考スコア(独自算出の注目度): 8.768596127212664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike human daily activities, existing publicly available sensor datasets
for work activity recognition in industrial domains are limited by difficulties
in collecting realistic data as close collaboration with industrial sites is
required. This also limits research on and development of AI methods for
industrial applications. To address these challenges and contribute to research
on machine recognition of work activities in industrial domains, in this study,
we introduce a new large-scale dataset for packaging work recognition called
OpenPack. OpenPack contains 53.8 hours of multimodal sensor data, including
keypoints, depth images, acceleration data, and readings from IoT-enabled
devices (e.g., handheld barcode scanners used in work procedures), collected
from 16 distinct subjects with different levels of packaging work experience.
On the basis of this dataset, we propose a neural network model designed to
recognize work activities, which efficiently fuses sensor data and readings
from IoT-enabled devices by processing them within different streams in a
ladder-shaped architecture, and the experiment showed the effectiveness of the
architecture. We believe that OpenPack will contribute to the community of
action/activity recognition with sensors. OpenPack dataset is available at
https://open-pack.github.io/.
- Abstract(参考訳): ヒトの日常的活動とは異なり、産業領域における作業活動認識のための既存のセンサデータセットは、産業現場との密接な連携が求められるため、現実的なデータ収集の困難さによって制限されている。
これにより、産業応用のためのAI手法の研究と開発も制限される。
そこで本研究では,これらの課題に対処し,産業領域における作業活動の機械的認識に関する研究に寄与するため,OpenPackと呼ばれる大規模な作業認識データセットを導入する。
OpenPackには、キーポイント、深度画像、加速度データ、IoT対応デバイス(例えば、作業手順で使用されるハンドヘルドバーコードスキャナ)からの読み取りを含む53.8時間のマルチモーダルセンサーデータが含まれている。
このデータセットに基づいて,iot対応デバイスからセンサデータや読み出しを,はしご型アーキテクチャで異なるストリーム内で処理することにより効率的に融合する作業アクティビティを認識可能なニューラルネットワークモデルを提案し,そのアーキテクチャの有効性を示す。
openpackはセンサによるアクション/アクティビティ認識のコミュニティに貢献すると思います。
openpack datasetはhttps://open-pack.github.io/で入手できる。
関連論文リスト
- SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale
SAR Object Detection [83.21028626585986]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - DOO-RE: A dataset of ambient sensors in a meeting room for activity
recognition [2.2939897247190886]
環境センサを備えた会議室から収集したデータセットを構築した。
データセットであるDOO-REには、SoundやProductorなど、さまざまな環境センサタイプからのデータストリームが含まれている。
私たちの知る限りでは、DOO-REは信頼できるアノテーションを備えた実際の会議室で、シングルアクティビティとグループアクティビティの両方の認識をサポートする最初のデータセットです。
論文 参考訳(メタデータ) (2024-01-17T04:21:04Z) - Capture the Flag: Uncovering Data Insights with Large Language Models [90.47038584812925]
本研究では,Large Language Models (LLMs) を用いてデータの洞察の発見を自動化する可能性について検討する。
そこで本稿では,データセット内の意味的かつ関連する情報(フラグ)を識別する能力を測定するために,フラグを捕捉する原理に基づく新しい評価手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T14:20:06Z) - Know Thy Neighbors: A Graph Based Approach for Effective Sensor-Based
Human Activity Recognition in Smart Homes [0.0]
スマートホームにおけるヒューマンアクティビティ認識(HAR)のためのグラフ誘導ニューラルネットワーク手法を提案する。
スマートホームにおけるセンサネットワークを表す,より表現力のあるグラフ構造を学習することで,これを実現する。
本手法は,アテンション機構の適用により,個別の入力センサ計測を特徴空間にマッピングする。
論文 参考訳(メタデータ) (2023-11-16T02:43:13Z) - FedOpenHAR: Federated Multi-Task Transfer Learning for Sensor-Based
Human Activity Recognition [0.0]
本稿では,センサを用いた人間行動認識とデバイス位置識別の両課題に対して,フェデレート・トランスファー・ラーニングをマルチタスク方式で検討する。
OpenHARフレームワークは10個の小さなデータセットを含むモデルをトレーニングするために使用される。
タスク固有でパーソナライズされたフェデレーションモデルを用いたトランスファーラーニングとトレーニングにより、各クライアントを個別に訓練し、完全集中型アプローチよりも高い精度で学習した。
論文 参考訳(メタデータ) (2023-11-13T21:31:07Z) - Integration of Domain Expert-Centric Ontology Design into the CRISP-DM
for Cyber-Physical Production Systems [63.62764375279861]
機械学習(ML)とデータマイニング(DM)の手法は、収集されたデータから複雑で隠れたパターンを抽出する上で有望であることが証明されている。
しかし、このようなデータ駆動プロジェクトは、通常、CRISPDM(Cross-Industry Standard Process for Data Mining)で実行され、データの理解と準備に要する時間の不均等さのために失敗することが多い。
このコントリビューションは、データサイエンティストがCPPSの課題に対してより迅速かつ確実に洞察を得ることができるように、統合されたアプローチを提供することを目的としている。
論文 参考訳(メタデータ) (2023-07-21T15:04:00Z) - Virtual Reality via Object Poses and Active Learning: Realizing
Telepresence Robots with Aerial Manipulation Capabilities [39.29763956979895]
本稿では,動的・非構造環境下での空中操作を進展させる新しいテレプレゼンスシステムを提案する。
提案システムは触覚デバイスだけでなく、ロボットのワークスペースのリアルタイム3Dディスプレイを提供する仮想現実(VR)インターフェースも備えている。
DLRケーブル・サスペンド・エアリアルマニピュレータ(SAM)によるピック・アンド・プレイス、フォース・アプリケーション、ペグ・イン・ホールの70以上の堅牢な実行を示す。
論文 参考訳(メタデータ) (2022-10-18T08:42:30Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - PyTouch: A Machine Learning Library for Touch Processing [68.32055581488557]
我々は、タッチセンシング信号の処理に特化した、最初の機械学習ライブラリであるPyTouchを紹介する。
PyTouchはモジュール式で使いやすく、最先端のタッチ処理機能をサービスとして提供するように設計されている。
タッチ検出,スリップ,オブジェクトポーズ推定などのタッチ処理タスクにおいて,触覚センサの実際のデータからPyTouchを評価する。
論文 参考訳(メタデータ) (2021-05-26T18:55:18Z) - TapNet: The Design, Training, Implementation, and Applications of a
Multi-Task Learning CNN for Off-Screen Mobile Input [75.05709030478073]
本稿では,スマートフォンのタップを検出するマルチタスクネットワークであるTapNetの設計,トレーニング,実装,応用について述べる。
TapNetはデバイス間のデータから共同で学習し、タップ方向やタップ位置を含む複数のタップ特性を同時に認識することができる。
論文 参考訳(メタデータ) (2021-02-18T00:45:41Z) - A Common Operating Picture Framework Leveraging Data Fusion and Deep
Learning [0.7348448478819135]
本稿では,処理,爆発,拡散のソリューションを高速化するためのデータ融合フレームワークを提案する。
私たちのプラットフォームは、ディープラーニングやその他の処理手段を活用することで、複数のデータソースから情報を抽出するサービスの集合体です。
最初のイテレーションでは、ビジュアルデータ(FMV, WAMI, CCTV/PTZ-Cameras, オープンソースビデオなど)とAISデータストリーム(衛星と地上ソース)に焦点を当てました。
論文 参考訳(メタデータ) (2020-01-16T18:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。