論文の概要: Computer-Vision-Enabled Worker Video Analysis for Motion Amount Quantification
- arxiv url: http://arxiv.org/abs/2405.13999v1
- Date: Wed, 22 May 2024 21:15:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 20:04:17.222042
- Title: Computer-Vision-Enabled Worker Video Analysis for Motion Amount Quantification
- Title(参考訳): コンピュータビジョンによる運動量定量化のための作業者映像解析
- Authors: Hari Iyer, Neel Macwan, Shenghan Guo, Heejin Jeong,
- Abstract要約: 本稿では,作業者の上肢と下肢の動きを追跡・定量化するためのコンピュータビジョンに基づく新しい枠組みを提案する。
姿勢推定による関節位置データを用いて、このフレームワークは、運動量の定量化と監視のために、HotellingのT$2$統計を用いる。
作業者の安全と生産性を向上させるためのツールとして、精密な動作分析と積極的なエルゴノミクス調整を提供する。
- 参考スコア(独自算出の注目度): 2.7523980737007414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of physical workers is significantly influenced by the quantity of their motions. However, monitoring and assessing these motions is challenging due to the complexities of motion sensing, tracking, and quantification. Recent advancements have utilized in-situ video analysis for real-time observation of worker behaviors, enabling data-driven quantification of motion amounts. Nevertheless, there are limitations to monitoring worker movements using video data. This paper introduces a novel framework based on computer vision to track and quantify the motion of workers' upper and lower limbs, issuing alerts when the motion reaches critical thresholds. Using joint position data from posture estimation, the framework employs Hotelling's T$^2$ statistic to quantify and monitor motion amounts, integrating computer vision tools to address challenges in automated worker training and enhance exploratory research in this field. We collected data of participants performing lifting and moving tasks with large boxes and small wooden cubes, to simulate macro and micro assembly tasks respectively. It was found that the correlation between workers' joint motion amount and the Hotelling's T$^2$ statistic was approximately 35% greater for micro tasks compared to macro tasks, highlighting the framework's ability to identify fine-grained motion differences. This study demonstrates the effectiveness of the proposed system in real-time applications across various industry settings. It provides a tool for enhancing worker safety and productivity through precision motion analysis and proactive ergonomic adjustments.
- Abstract(参考訳): 物理労働者のパフォーマンスは、運動量に大きく影響される。
しかし、モーションセンシング、追跡、定量化の複雑さのため、これらの動きの監視と評価は困難である。
近年,作業者の行動のリアルタイム観察にその場ビデオ解析を活用し,データ駆動による動き量の定量化を実現している。
それでも、ビデオデータを使用してワーカーの動きを監視するには制限がある。
本稿では,作業者の上肢と下肢の動作を追跡し,定量化するためのコンピュータビジョンに基づく新しい枠組みを提案する。
姿勢推定による関節位置データを用いて、このフレームワークは、HotellingのT$^2$統計を用いて、運動量の定量化と監視を行い、コンピュータビジョンツールを統合して、自動化労働者訓練の課題に対処し、この分野における探索研究を強化する。
大型箱と小型木製立方体を用いて持ち上げ作業および移動作業を行った参加者のデータを収集し,マクロおよびマイクロ組立作業のシミュレーションを行った。
その結果, 作業者の関節運動量とホテルリングのT$^2$統計値との相関は, マクロタスクに比べて約35%大きいことがわかった。
本研究は,様々な産業環境におけるリアルタイムアプリケーションにおける提案システムの有効性を実証するものである。
作業者の安全と生産性を向上させるためのツールとして、精密な動作分析と積極的なエルゴノミクス調整を提供する。
関連論文リスト
- DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
論文 参考訳(メタデータ) (2024-06-06T18:12:04Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
Strategy and Benchmark [49.58762201363483]
本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-05-17T14:14:31Z) - Motion Capture Benchmark of Real Industrial Tasks and Traditional Crafts
for Human Movement Analysis [0.0]
本稿では,慣性に基づくモーションキャプチャを用いて記録した7つのデータセットについて述べる。
データセットには、産業従事者や熟練した職人が現場で行うプロのジェスチャーが含まれている。
論文 参考訳(メタデータ) (2023-04-03T10:29:24Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - Few-shot human motion prediction for heterogeneous sensors [5.210197476419621]
空間グラフを明示的に組み込んだ最初の数発のモーションアプローチを導入する。
固定出力空間でタスクを評価する場合、これまでのベストアプローチと同等に動作できることが示される。
論文 参考訳(メタデータ) (2022-12-22T15:06:24Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Understanding reinforcement learned crowds [9.358303424584902]
強化学習法は仮想エージェントをアニメーションするために用いられる。
彼らの本当の影響と、それが結果にどのように影響するかは、明らかではない。
学習性能に対する影響の観点から,これらの任意選択のいくつかを分析した。
論文 参考訳(メタデータ) (2022-09-19T20:47:49Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Data Science for Motion and Time Analysis with Modern Motion Sensor Data [14.105132549564873]
モーション・アンド・タイム分析は、オペレーション・リサーチにおいて人気のある研究トピックである。
リーン製造とスマートファクトリのための継続的改善ツールとして、再び注目を集めています。
本稿では,作業動作のデータ駆動分析のためのフレームワークを開発し,作業速度や実行速度との関係について検討する。
論文 参考訳(メタデータ) (2020-08-25T02:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。