論文の概要: Classification of Primitive Manufacturing Tasks from Filtered Event Data
- arxiv url: http://arxiv.org/abs/2303.09558v1
- Date: Wed, 15 Mar 2023 19:59:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:44:32.960725
- Title: Classification of Primitive Manufacturing Tasks from Filtered Event Data
- Title(参考訳): フィルタイベントデータによる原始的生産課題の分類
- Authors: Laura Duarte, Pedro Neto
- Abstract要約: 協調型ロボットは、人間の活動を支援するために、ますます産業に存在している。
人間とロボットの協調プロセスをより効果的にするためには、対処すべき課題がいくつかある。
本研究では,人間の動作イベントデータから原始的な組立作業を認識する行動分類システムを提案する。
- 参考スコア(独自算出の注目度): 0.8122270502556371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative robots are increasingly present in industry to support human
activities. However, to make the human-robot collaborative process more
effective, there are several challenges to be addressed. Collaborative robotic
systems need to be aware of the human activities to (1) anticipate
collaborative/assistive actions, (2) learn by demonstration, and (3) activate
safety procedures in shared workspace. This study proposes an action
classification system to recognize primitive assembly tasks from human motion
events data captured by a Dynamic and Active-pixel Vision Sensor (DAVIS).
Several filters are compared and combined to remove event data noise. Task
patterns are classified from a continuous stream of event data using advanced
deep learning and recurrent networks to classify spatial and temporal features.
Experiments were conducted on a novel dataset, the dataset of manufacturing
tasks (DMT22), featuring 5 classes of representative manufacturing primitives
(PickUp, Place, Screw, Hold, Idle) from 5 participants. Results show that the
proposed filters remove about 65\% of all events (noise) per recording,
conducting to a classification accuracy up to 99,37\% for subjects that trained
the system and 97.08\% for new subjects. Data from a left-handed subject were
successfully classified using only right-handed training data. These results
are object independent.
- Abstract(参考訳): 協調型ロボットは、人間の活動を支援するために産業にますます存在する。
しかし、人間とロボットの協調プロセスをより効果的にするためには、対処すべき課題がいくつかある。
協調型ロボットシステムは,(1)協調的・補助的行動,(2)実演による学習,(3)共有作業空間における安全手順の活性化など,人間の活動に注意が必要である。
本研究では,ダイナミック・アクティブ・ピクセル・ビジョン・センサ(DAVIS)が捉えた人間の動作イベントデータから,プリミティブ・アセンブリータスクを認識する行動分類システムを提案する。
いくつかのフィルタを比較して、イベントデータノイズを除去する。
タスクパターンは、高度な深層学習と繰り返しネットワークを使用してイベントデータの連続ストリームから分類され、空間的特徴と時間的特徴を分類する。
製造作業データセット(DMT22)では,5人の参加者から5種類の代表的な製造プリミティブ(PickUp, Place, Screw, Hold, Idle)を抽出した。
その結果, 提案したフィルタは記録毎の事象(ノイズ)の約65%を除去し, 学習した被験者の分類精度を99,37 %, 新規被験者の97.08 %とした。
右利きのトレーニングデータのみを用いて,左利きの被験者のデータを分類した。
これらの結果はオブジェクト独立である。
関連論文リスト
- Consistency Based Weakly Self-Supervised Learning for Human Activity Recognition with Wearables [1.565361244756411]
センサデータから人間の活動を認識するための弱自己教師型アプローチについて述べる。
提案手法は, クラスタリングアルゴリズムが, 基礎となる人間の行動を特定し, 分類する上で, 同等のパフォーマンスを達成するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-07-29T06:29:21Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Robust Activity Recognition for Adaptive Worker-Robot Interaction using
Transfer Learning [0.0]
本稿では,建設労働者の行動認識のための伝達学習手法を提案する。
開発したアルゴリズムは、オリジナルの著者によって事前訓練されたモデルから特徴を伝達し、それらを下流のアクティビティ認識タスクのために微調整する。
その結果, 微調整モデルでは, 異なるMMHタスクを頑健かつ適応的に認識できることが示唆された。
論文 参考訳(メタデータ) (2023-08-28T19:03:46Z) - A Matter of Annotation: An Empirical Study on In Situ and Self-Recall Activity Annotations from Wearable Sensors [56.554277096170246]
In-the-wildデータ収集に焦点をあてたユーザスタディにおいて,一般的な4つのアノテーション手法の評価と対比を行う実験的検討を行った。
実際の記録プロセス中に参加者がアノテートするユーザ主導のin situアノテーションと、各日の終わりに参加者が振り返ってアノテートするリコールメソッドの両方に対して、参加者は自身のアクティビティクラスと対応するラベルを選択できる柔軟性を持っていた。
論文 参考訳(メタデータ) (2023-05-15T16:02:56Z) - Towards Multi-User Activity Recognition through Facilitated Training
Data and Deep Learning for Human-Robot Collaboration Applications [2.3274633659223545]
本研究では、シングルユーザに関するデータを収集し、後処理でそれらをマージすることで、マルチユーザアクティビティに関するデータを集める方法を提案する。
同じ設定で記録されたユーザのグループに関するトレーニングデータを使用する場合と比較して、この方法で収集されたデータをHRC設定のペアに使用し、同様のパフォーマンスを得ることができる。
論文 参考訳(メタデータ) (2023-02-11T19:27:07Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Human-in-the-Loop Imitation Learning using Remote Teleoperation [72.2847988686463]
6-DoF操作設定に合わせたデータ収集システムを構築します。
システムによって収集された新しいデータに基づいて,ポリシーを反復的にトレーニングするアルゴリズムを開発した。
介入型システムで収集したデータに基づいて訓練されたエージェントと、非介入型デモ参加者が収集した同等数のサンプルで訓練されたアルゴリズムを上回るエージェントを実証する。
論文 参考訳(メタデータ) (2020-12-12T05:30:35Z) - Multi-label Learning with Missing Values using Combined Facial Action
Unit Datasets [0.0]
顔のアクションユニットは、人間の顔の感情を記述するのに使用できる顔のマイクロムーブメントの客観的で標準化された記述を可能にする。
アクションユニットのデータアノテートは高価で時間を要する作業であり、データ状況の不足につながる。
本稿では,欠落ラベルの存在下で学習可能なデータベースとアルゴリズムを組み合わせるためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-17T11:58:06Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - An Efficient Data Imputation Technique for Human Activity Recognition [3.0117625632585705]
本研究では,データセットの欠落したサンプルを抽出し,人間の日常生活活動をよりよく認識する手法を提案する。
提案手法は,k-Nearest Neighbors (KNN) 計算技術を用いて,データキャプチャを効率的に前処理する。
提案手法は,実際のデータセットと同じような活動パターンをエレガントに外挿する。
論文 参考訳(メタデータ) (2020-07-08T22:05:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。