論文の概要: ForcePose: A Deep Learning Approach for Force Calculation Based on Action Recognition Using MediaPipe Pose Estimation Combined with Object Detection
- arxiv url: http://arxiv.org/abs/2503.22363v1
- Date: Fri, 28 Mar 2025 12:13:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:32:23.082505
- Title: ForcePose: A Deep Learning Approach for Force Calculation Based on Action Recognition Using MediaPipe Pose Estimation Combined with Object Detection
- Title(参考訳): ForcePose: 物体検出と組み合わせたメディアパイプ電位推定を用いた行動認識に基づく力計算の深層学習手法
- Authors: Nandakishor M, Vrinda Govind V, Anuradha Puthalath, Anzy L, Swathi P S, Aswathi R, Devaprabha A R, Varsha Raj, Midhuna Krishnan K, Akhila Anilkumar T V, Yamuna P V,
- Abstract要約: ForcePoseは、人間のポーズ推定とオブジェクト検出を組み合わせることで、応用力を推定する新しいディープラーニングフレームワークである。
我々は、物理的センサーを必要とせず、力の大きさと方向を予測するために、空間的特徴と時間的特徴の両方を処理する専門的なニューラルネットワークを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Force estimation in human-object interactions is crucial for various fields like ergonomics, physical therapy, and sports science. Traditional methods depend on specialized equipment such as force plates and sensors, which makes accurate assessments both expensive and restricted to laboratory settings. In this paper, we introduce ForcePose, a novel deep learning framework that estimates applied forces by combining human pose estimation with object detection. Our approach leverages MediaPipe for skeletal tracking and SSD MobileNet for object recognition to create a unified representation of human-object interaction. We've developed a specialized neural network that processes both spatial and temporal features to predict force magnitude and direction without needing any physical sensors. After training on our dataset of 850 annotated videos with corresponding force measurements, our model achieves a mean absolute error of 5.83 N in force magnitude and 7.4 degrees in force direction. When compared to existing computer vision approaches, our method performs 27.5% better while still offering real-time performance on standard computing hardware. ForcePose opens up new possibilities for force analysis in diverse real-world scenarios where traditional measurement tools are impractical or intrusive. This paper discusses our methodology, the dataset creation process, evaluation metrics, and potential applications across rehabilitation, ergonomics assessment, and athletic performance analysis.
- Abstract(参考訳): 人間と物体の相互作用における力の推定は、エルゴノミクス、理学療法、スポーツ科学など様々な分野において重要である。
従来の手法は、力板やセンサーのような特殊な装置に依存しており、高価で実験室の設定に制限された正確な評価を行う。
本稿では,人間のポーズ推定と物体検出を組み合わせ,応用力を推定する新しいディープラーニングフレームワークであるForcePoseを紹介する。
本稿では,MediaPipeを骨格追跡に,SSD MobileNetをオブジェクト認識に利用し,人間と物体の相互作用を統一的に表現する手法を提案する。
我々は、物理的センサーを必要とせず、力の大きさと方向を予測するために、空間的特徴と時間的特徴の両方を処理する専門的なニューラルネットワークを開発した。
対応する力測定値を用いて850本の注釈付きビデオのデータセットをトレーニングした後、平均絶対誤差は5.83N、力方向は7.4°である。
従来のコンピュータビジョンのアプローチと比較すると,標準的なコンピュータハードウェア上でのリアルタイム性能を保ちながら,27.5%の高速化を実現している。
ForcePoseは、従来の測定ツールが非現実的または侵入的であるさまざまな実世界のシナリオで、フォース分析の新たな可能性を開く。
本稿では,我々の方法論,データセット作成プロセス,評価指標,リハビリテーション,エルゴノミクス・アセスメント,運動パフォーマンス分析における潜在的な応用について論じる。
関連論文リスト
- DeepSimHO: Stable Pose Estimation for Hand-Object Interaction via
Physics Simulation [81.11585774044848]
我々は、前方物理シミュレーションと後方勾配近似とニューラルネットワークを組み合わせた新しいディープラーニングパイプラインであるDeepSimHOを紹介する。
提案手法は, 評価の安定性を著しく向上し, テスト時間最適化よりも優れた効率性を実現する。
論文 参考訳(メタデータ) (2023-10-11T05:34:36Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Learning suction graspability considering grasp quality and robot
reachability for bin-picking [4.317666242093779]
直感的な幾何学的解析に基づくグリップ品質評価指標を提案する。
さらに,到達可能性評価指標を取り入れた。
実験結果から,直感的に把握できる品質評価基準は,物理的に着想を得た指標と競合することがわかった。
論文 参考訳(メタデータ) (2021-11-04T00:55:42Z) - An Extensible Benchmark Suite for Learning to Simulate Physical Systems [60.249111272844374]
我々は、統一されたベンチマークと評価プロトコルへの一歩を踏み出すために、一連のベンチマーク問題を導入する。
本稿では,4つの物理系と,広く使用されている古典的時間ベースおよび代表的なデータ駆動手法のコレクションを提案する。
論文 参考訳(メタデータ) (2021-08-09T17:39:09Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Toward Force Estimation in Robot-Assisted Surgery using Deep Learning
with Vision and Robot State [25.121899443298567]
畳み込みニューラルネットワークを用いた視覚ベースのディープラーニングは、有用な力推定を提供するための有望なアプローチである。
本稿では,RGB画像とロボット状態を入力として使用する力推定ニューラルネットワークを提案する。
精度は同等だが、ベースラインのリカレントニューラルネットワークよりも高速な計算時間を示しており、リアルタイムアプリケーションに適している。
論文 参考訳(メタデータ) (2020-11-04T04:00:07Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Gaining a Sense of Touch. Physical Parameters Estimation using a Soft
Gripper and Neural Networks [3.0892724364965005]
ロボットグリップを用いた物体との直接相互作用の測定における深層学習アルゴリズムを用いた物理パラメータ推定に関する十分な研究はない。
本研究では、剛性係数の回帰をトレーニング可能なシステムを提案し、物理シミュレータ環境を用いて広範な実験を行った。
本システムでは,Yale OpenHandソフトグリップを用いて,指に装着した慣性測定ユニット(IMU)の読み値に基づいて,物体の硬さを確実に推定することができる。
論文 参考訳(メタデータ) (2020-03-02T11:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。