論文の概要: Computer-Vision-Enabled Worker Video Analysis for Motion Amount Quantification
- arxiv url: http://arxiv.org/abs/2405.13999v2
- Date: Tue, 19 Nov 2024 07:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:33:51.139359
- Title: Computer-Vision-Enabled Worker Video Analysis for Motion Amount Quantification
- Title(参考訳): コンピュータビジョンによる運動量定量化のための作業者映像解析
- Authors: Hari Iyer, Neel Macwan, Shenghan Guo, Heejin Jeong,
- Abstract要約: 本稿では,上肢動作の追跡と定量化のための新しい枠組みを提案する。
姿勢推定による関節位置データを用いて、このフレームワークは、運動量の定量化と監視にHotellingの$T2$統計を使用する。
その結果, 作業者の関節運動量とHotellingのT2$統計値との相関は, マイクロタスクの方がマクロタスクよりも約35%高いことがわかった。
- 参考スコア(独自算出の注目度): 2.7523980737007414
- License:
- Abstract: The performance of physical workers is significantly influenced by the extent of their motions. However, monitoring and assessing these motions remains a challenge. Recent advancements have enabled in-situ video analysis for real-time observation of worker behaviors. This paper introduces a novel framework for tracking and quantifying upper and lower limb motions, issuing alerts when critical thresholds are reached. Using joint position data from posture estimation, the framework employs Hotelling's $T^2$ statistic to quantify and monitor motion amounts. The results indicate that the correlation between workers' joint motion amounts and Hotelling's $T^2$ statistic is approximately 35\% higher for micro-tasks than macro-tasks, demonstrating the framework's ability to detect fine-grained motion differences. This study highlights the proposed system's effectiveness in real-time applications across various industry settings, providing a valuable tool for precision motion analysis and proactive ergonomic adjustments.
- Abstract(参考訳): 身体的労働者のパフォーマンスは、運動の程度に大きく影響される。
しかし、これらの動きの監視と評価は依然として課題である。
近年の進歩により、労働者の行動のリアルタイム観察のためのその場ビデオ分析が可能となった。
本稿では,上肢動作の追跡と定量化のための新しい枠組みを提案し,臨界閾値に達すると警告を発する。
姿勢推定による関節位置データを用いて、このフレームワークは、運動量の定量化と監視にHotellingの$T^2$統計を用いる。
その結果, 作業者の関節運動量とHotellingのT^2$統計値との相関は, マイクロタスクではマクロタスクよりも約35\%高く, 微粒な動きの差を検出できることが示唆された。
本研究は, 各種産業環境におけるリアルタイム適用におけるシステムの有効性を強調し, 高精度な動作解析と前向きなエルゴノミクス調整のための有用なツールを提供する。
関連論文リスト
- DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
論文 参考訳(メタデータ) (2024-06-06T18:12:04Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
Strategy and Benchmark [49.58762201363483]
本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-05-17T14:14:31Z) - Motion Capture Benchmark of Real Industrial Tasks and Traditional Crafts
for Human Movement Analysis [0.0]
本稿では,慣性に基づくモーションキャプチャを用いて記録した7つのデータセットについて述べる。
データセットには、産業従事者や熟練した職人が現場で行うプロのジェスチャーが含まれている。
論文 参考訳(メタデータ) (2023-04-03T10:29:24Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - Few-shot human motion prediction for heterogeneous sensors [5.210197476419621]
空間グラフを明示的に組み込んだ最初の数発のモーションアプローチを導入する。
固定出力空間でタスクを評価する場合、これまでのベストアプローチと同等に動作できることが示される。
論文 参考訳(メタデータ) (2022-12-22T15:06:24Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Understanding reinforcement learned crowds [9.358303424584902]
強化学習法は仮想エージェントをアニメーションするために用いられる。
彼らの本当の影響と、それが結果にどのように影響するかは、明らかではない。
学習性能に対する影響の観点から,これらの任意選択のいくつかを分析した。
論文 参考訳(メタデータ) (2022-09-19T20:47:49Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Data Science for Motion and Time Analysis with Modern Motion Sensor Data [14.105132549564873]
モーション・アンド・タイム分析は、オペレーション・リサーチにおいて人気のある研究トピックである。
リーン製造とスマートファクトリのための継続的改善ツールとして、再び注目を集めています。
本稿では,作業動作のデータ駆動分析のためのフレームワークを開発し,作業速度や実行速度との関係について検討する。
論文 参考訳(メタデータ) (2020-08-25T02:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。