論文の概要: Computer-Vision-Enabled Worker Video Analysis for Motion Amount   Quantification
        - arxiv url: http://arxiv.org/abs/2405.13999v2
- Date: Tue, 19 Nov 2024 07:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:32.575129
- Title: Computer-Vision-Enabled Worker Video Analysis for Motion Amount   Quantification
- Title(参考訳): コンピュータビジョンによる運動量定量化のための作業者映像解析
- Authors: Hari Iyer, Neel Macwan, Shenghan Guo, Heejin Jeong, 
- Abstract要約: 本稿では,上肢動作の追跡と定量化のための新しい枠組みを提案する。
姿勢推定による関節位置データを用いて、このフレームワークは、運動量の定量化と監視にHotellingの$T2$統計を使用する。
その結果, 作業者の関節運動量とHotellingのT2$統計値との相関は, マイクロタスクの方がマクロタスクよりも約35%高いことがわかった。
- 参考スコア(独自算出の注目度): 2.7523980737007414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract:   The performance of physical workers is significantly influenced by the extent of their motions. However, monitoring and assessing these motions remains a challenge. Recent advancements have enabled in-situ video analysis for real-time observation of worker behaviors. This paper introduces a novel framework for tracking and quantifying upper and lower limb motions, issuing alerts when critical thresholds are reached. Using joint position data from posture estimation, the framework employs Hotelling's $T^2$ statistic to quantify and monitor motion amounts. The results indicate that the correlation between workers' joint motion amounts and Hotelling's $T^2$ statistic is approximately 35\% higher for micro-tasks than macro-tasks, demonstrating the framework's ability to detect fine-grained motion differences. This study highlights the proposed system's effectiveness in real-time applications across various industry settings, providing a valuable tool for precision motion analysis and proactive ergonomic adjustments. 
- Abstract(参考訳): 身体的労働者のパフォーマンスは、運動の程度に大きく影響される。
しかし、これらの動きの監視と評価は依然として課題である。
近年の進歩により、労働者の行動のリアルタイム観察のためのその場ビデオ分析が可能となった。
本稿では,上肢動作の追跡と定量化のための新しい枠組みを提案し,臨界閾値に達すると警告を発する。
姿勢推定による関節位置データを用いて、このフレームワークは、運動量の定量化と監視にHotellingの$T^2$統計を用いる。
その結果, 作業者の関節運動量とHotellingのT^2$統計値との相関は, マイクロタスクではマクロタスクよりも約35\%高く, 微粒な動きの差を検出できることが示唆された。
本研究は, 各種産業環境におけるリアルタイム適用におけるシステムの有効性を強調し, 高精度な動作解析と前向きなエルゴノミクス調整のための有用なツールを提供する。
 
      
        関連論文リスト
        - Event-Based Tracking Any Point with Motion-Augmented Temporal   Consistency [58.719310295870024]
 本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
 論文  参考訳(メタデータ) (2024-12-02T09:13:29Z)
- DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
 提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
 論文  参考訳(メタデータ) (2024-06-06T18:12:04Z)
- Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
 TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
 論文  参考訳(メタデータ) (2024-03-13T15:45:04Z)
- Context-based Interpretable Spatio-Temporal Graph Convolutional Network
  for Human Motion Forecasting [0.0]
 本稿では,効率的な3次元ポーズ予測モデルとしてコンテキスト解釈型時空間グラフネットワーク(IST-GCN)を提案する。
提案アーキテクチャでは,ポーズシーケンスから意味のある情報を抽出し,入力モデルにアグリゲーションとアクセラレーションを集約し,最終的に出力変位を予測する。
 論文  参考訳(メタデータ) (2024-02-21T17:51:30Z)
- What Makes Pre-Trained Visual Representations Successful for Robust
  Manipulation? [57.92924256181857]
 照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
 論文  参考訳(メタデータ) (2023-11-03T18:09:08Z)
- Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
  Strategy and Benchmark [49.58762201363483]
 本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
 論文  参考訳(メタデータ) (2023-05-17T14:14:31Z)
- Motion Capture Benchmark of Real Industrial Tasks and Traditional Crafts
  for Human Movement Analysis [0.0]
 本稿では,慣性に基づくモーションキャプチャを用いて記録した7つのデータセットについて述べる。
データセットには、産業従事者や熟練した職人が現場で行うプロのジェスチャーが含まれている。
 論文  参考訳(メタデータ) (2023-04-03T10:29:24Z)
- Mutual Information-Based Temporal Difference Learning for Human Pose
  Estimation in Video [16.32910684198013]
 本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
 論文  参考訳(メタデータ) (2023-03-15T09:29:03Z)
- HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
 人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
 論文  参考訳(メタデータ) (2023-02-07T18:34:59Z)
- Few-shot human motion prediction for heterogeneous sensors [5.210197476419621]
 空間グラフを明示的に組み込んだ最初の数発のモーションアプローチを導入する。
固定出力空間でタスクを評価する場合、これまでのベストアプローチと同等に動作できることが示される。
 論文  参考訳(メタデータ) (2022-12-22T15:06:24Z)
- Task Formulation Matters When Learning Continually: A Case Study in
  Visual Question Answering [58.82325933356066]
 継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
 論文  参考訳(メタデータ) (2022-09-30T19:12:58Z)
- Understanding reinforcement learned crowds [9.358303424584902]
 強化学習法は仮想エージェントをアニメーションするために用いられる。
彼らの本当の影響と、それが結果にどのように影響するかは、明らかではない。
学習性能に対する影響の観点から,これらの任意選択のいくつかを分析した。
 論文  参考訳(メタデータ) (2022-09-19T20:47:49Z)
- Automated Mobility Context Detection with Inertial Signals [7.71058263701836]
 本研究の主な目的は,日常の運動機能の遠隔監視のためのコンテキスト検出について検討することである。
本研究の目的は、ウェアラブル加速度計でサンプリングされた慣性信号が、歩行関連活動を屋内または屋外に分類するための信頼性の高い情報を提供するかを理解することである。
 論文  参考訳(メタデータ) (2022-05-16T09:34:43Z)
- Self-supervised Pretraining with Classification Labels for Temporal
  Activity Detection [54.366236719520565]
 時間的アクティビティ検出は、1フレーム当たりのアクティビティクラスを予測することを目的としている。
検出に必要なフレームレベルのアノテーションが高価なため、検出データセットの規模は限られている。
本研究では,分類ラベルを利用した自己教師付き事前学習手法を提案する。
 論文  参考訳(メタデータ) (2021-11-26T18:59:28Z)
- Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
 自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
 論文  参考訳(メタデータ) (2021-11-23T03:29:18Z)
- TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
 TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
 論文  参考訳(メタデータ) (2021-04-08T20:01:00Z)
- Temporally Guided Articulated Hand Pose Tracking in Surgical Videos [22.752654546694334]
 アーティキュレートされた手ポーズ追跡は、多くのアプリケーションで使用可能な可能性を秘めている未発見の問題である。
提案する手ポーズ推定モデルであるCondPoseは,その予測に先立ってポーズを組み込むことで,検出と追跡の精度を向上させる。
 論文  参考訳(メタデータ) (2021-01-12T03:44:04Z)
- Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
 我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
 論文  参考訳(メタデータ) (2021-01-07T06:08:21Z)
- Data Science for Motion and Time Analysis with Modern Motion Sensor Data [14.105132549564873]
 モーション・アンド・タイム分析は、オペレーション・リサーチにおいて人気のある研究トピックである。
リーン製造とスマートファクトリのための継続的改善ツールとして、再び注目を集めています。
本稿では,作業動作のデータ駆動分析のためのフレームワークを開発し,作業速度や実行速度との関係について検討する。
 論文  参考訳(メタデータ) (2020-08-25T02:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。