論文の概要: Computer-Vision-Enabled Worker Video Analysis for Motion Amount Quantification
- arxiv url: http://arxiv.org/abs/2405.13999v2
- Date: Tue, 19 Nov 2024 07:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:33:51.139359
- Title: Computer-Vision-Enabled Worker Video Analysis for Motion Amount Quantification
- Title(参考訳): コンピュータビジョンによる運動量定量化のための作業者映像解析
- Authors: Hari Iyer, Neel Macwan, Shenghan Guo, Heejin Jeong,
- Abstract要約: 本稿では,上肢動作の追跡と定量化のための新しい枠組みを提案する。
姿勢推定による関節位置データを用いて、このフレームワークは、運動量の定量化と監視にHotellingの$T2$統計を使用する。
その結果, 作業者の関節運動量とHotellingのT2$統計値との相関は, マイクロタスクの方がマクロタスクよりも約35%高いことがわかった。
- 参考スコア(独自算出の注目度): 2.7523980737007414
- License:
- Abstract: The performance of physical workers is significantly influenced by the extent of their motions. However, monitoring and assessing these motions remains a challenge. Recent advancements have enabled in-situ video analysis for real-time observation of worker behaviors. This paper introduces a novel framework for tracking and quantifying upper and lower limb motions, issuing alerts when critical thresholds are reached. Using joint position data from posture estimation, the framework employs Hotelling's $T^2$ statistic to quantify and monitor motion amounts. The results indicate that the correlation between workers' joint motion amounts and Hotelling's $T^2$ statistic is approximately 35\% higher for micro-tasks than macro-tasks, demonstrating the framework's ability to detect fine-grained motion differences. This study highlights the proposed system's effectiveness in real-time applications across various industry settings, providing a valuable tool for precision motion analysis and proactive ergonomic adjustments.
- Abstract(参考訳): 身体的労働者のパフォーマンスは、運動の程度に大きく影響される。
しかし、これらの動きの監視と評価は依然として課題である。
近年の進歩により、労働者の行動のリアルタイム観察のためのその場ビデオ分析が可能となった。
本稿では,上肢動作の追跡と定量化のための新しい枠組みを提案し,臨界閾値に達すると警告を発する。
姿勢推定による関節位置データを用いて、このフレームワークは、運動量の定量化と監視にHotellingの$T^2$統計を用いる。
その結果, 作業者の関節運動量とHotellingのT^2$統計値との相関は, マイクロタスクではマクロタスクよりも約35\%高く, 微粒な動きの差を検出できることが示唆された。
本研究は, 各種産業環境におけるリアルタイム適用におけるシステムの有効性を強調し, 高精度な動作解析と前向きなエルゴノミクス調整のための有用なツールを提供する。
関連論文リスト
- M3Bench: Benchmarking Whole-body Motion Generation for Mobile Manipulation in 3D Scenes [66.44171200767839]
モバイル操作タスクのための全身動作生成のベンチマークであるM3Benchを提案する。
M3Benchは、その構成、環境制約、タスクの目的を理解するために、実施エージェントを必要とする。
M3Benchは119の多様なシーンにまたがる30kのオブジェクト再構成タスクを備えており、新たに開発したM3BenchMakerによって生成された専門家によるデモを提供する。
論文 参考訳(メタデータ) (2024-10-09T08:38:21Z) - A vision-based framework for human behavior understanding in industrial assembly lines [0.7037008937757392]
本稿では,産業用組立ラインにおける人間の行動の把握と理解のためのビジョンベースフレームワークを提案する。
このフレームワークは高度なコンピュータビジョン技術を活用し、労働者の位置と3Dポーズを推定し、作業姿勢、行動、タスク進捗を分析する。
重要なコントリビューションは、現実的な環境でキャプチャされたドメイン関連アセンブリアクションを含む、CarDAデータセットの導入である。
論文 参考訳(メタデータ) (2024-09-25T21:03:13Z) - MobileAIBench: Benchmarking LLMs and LMMs for On-Device Use Cases [81.70591346986582]
モバイル端末上でのLarge Language Models(LLM)とLarge Multimodal Models(LMM)を評価するためのベンチマークフレームワークであるMobileAIBenchを紹介する。
MobileAIBenchは、さまざまなサイズ、量子化レベル、タスクにわたるモデルを評価し、実際のデバイス上でのレイテンシとリソース消費を測定する。
論文 参考訳(メタデータ) (2024-06-12T22:58:12Z) - Large Motion Model for Unified Multi-Modal Motion Generation [50.56268006354396]
Large Motion Model (LMM) は、動き中心のマルチモーダルフレームワークであり、メインストリームのモーション生成タスクをジェネラリストモデルに統合する。
LMMは3つの原則的な側面からこれらの課題に取り組む。
論文 参考訳(メタデータ) (2024-04-01T17:55:11Z) - Motion Capture Benchmark of Real Industrial Tasks and Traditional Crafts
for Human Movement Analysis [0.0]
本稿では,慣性に基づくモーションキャプチャを用いて記録した7つのデータセットについて述べる。
データセットには、産業従事者や熟練した職人が現場で行うプロのジェスチャーが含まれている。
論文 参考訳(メタデータ) (2023-04-03T10:29:24Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Data Science for Motion and Time Analysis with Modern Motion Sensor Data [14.105132549564873]
モーション・アンド・タイム分析は、オペレーション・リサーチにおいて人気のある研究トピックである。
リーン製造とスマートファクトリのための継続的改善ツールとして、再び注目を集めています。
本稿では,作業動作のデータ駆動分析のためのフレームワークを開発し,作業速度や実行速度との関係について検討する。
論文 参考訳(メタデータ) (2020-08-25T02:33:33Z) - Taskology: Utilizing Task Relations at Scale [28.09712466727001]
共同で訓練することで,タスクの集合間の固有の関係を活用できることが示される。
タスク間の関係を明確に活用することで、パフォーマンスが向上し、ラベル付きデータの必要性が劇的に低減される。
本稿では, 深度と正規予測, セマンティックセグメンテーション, 3次元運動とエゴモーション推定, および点雲における物体追跡と3次元検出という, タスクのサブセットについて示す。
論文 参考訳(メタデータ) (2020-05-14T22:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。