論文の概要: Using joint angles based on the international biomechanical standards for human action recognition and related tasks
- arxiv url: http://arxiv.org/abs/2406.17443v1
- Date: Tue, 25 Jun 2024 10:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 14:42:03.068128
- Title: Using joint angles based on the international biomechanical standards for human action recognition and related tasks
- Title(参考訳): 人間の行動認識と関連する課題に関する国際バイオメカニクス標準に基づく関節角度の利用
- Authors: Kevin Schlegel, Lei Jiang, Hao Ni,
- Abstract要約: キーポイントデータを一意にポーズを記述するジョイントアングルに変換する方法を示す。
我々は,キーポイントデータの関節角表現が機械学習応用に適していることを実験的に実証した。
人為的なデータ表現としての関節角の使用は、人間の専門家との解釈可能性や対話が重要であるアプリケーションにおいて特に有望である。
- 参考スコア(独自算出の注目度): 7.789894769085375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keypoint data has received a considerable amount of attention in machine learning for tasks like action detection and recognition. However, human experts in movement such as doctors, physiotherapists, sports scientists and coaches use a notion of joint angles standardised by the International Society of Biomechanics to precisely and efficiently communicate static body poses and movements. In this paper, we introduce the basic biomechanical notions and show how they can be used to convert common keypoint data into joint angles that uniquely describe the given pose and have various desirable mathematical properties, such as independence of both the camera viewpoint and the person performing the action. We experimentally demonstrate that the joint angle representation of keypoint data is suitable for machine learning applications and can in some cases bring an immediate performance gain. The use of joint angles as a human meaningful representation of kinematic data is in particular promising for applications where interpretability and dialog with human experts is important, such as many sports and medical applications. To facilitate further research in this direction, we will release a python package to convert keypoint data into joint angles as outlined in this paper.
- Abstract(参考訳): キーポイントデータは、アクション検出や認識といったタスクに対して、機械学習においてかなりの注目を集めている。
しかし、医師、体操選手、スポーツ科学者、コーチなどの運動の専門家は、静的な身体のポーズや動きを正確かつ効率的に伝達するために、国際バイオメカニクス協会によって標準化された関節角の概念を使用している。
本稿では, 基本生体力学の概念を導入し, 共通のキーポイントデータを, 与えられたポーズを一意に記述し, カメラ視点の独立性やアクションを行う人など, 様々な望ましい数学的特性を持つジョイントアングルに変換する方法について述べる。
我々は、キーポイントデータの関節角表現が機械学習アプリケーションに適していることを実験的に証明し、場合によっては即時の性能向上をもたらす可能性があることを実証した。
関節角を人間に意味のあるキネマティックデータの表現として用いることは、スポーツや医療など、人間の専門家との解釈可能性や対話が重要であるアプリケーションに特に有望である。
この方向のさらなる研究を容易にするため、我々はキーポイントデータをジョイントアングルに変換するピソンパッケージをリリースする。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - How Object Information Improves Skeleton-based Human Action Recognition
in Assembly Tasks [12.349172146831506]
本稿では,物体情報を骨格に基づく行動認識に組み込む新しい手法を提案する。
我々は、物体中心をさらなる骨格関節として扱うことにより、最先端の2つの方法を強化する。
我々の研究は、組み立て作業における人間の行動認識のための骨格関節と物体情報を組み合わせることの利点に光を当てている。
論文 参考訳(メタデータ) (2023-06-09T12:18:14Z) - Multi-Channel Time-Series Person and Soft-Biometric Identification [65.83256210066787]
本研究は, 深層建築を用いて異なる活動を行う人間の記録から, 個人とソフトバイオメトリックスを同定する。
マルチチャネル時系列ヒューマンアクティビティ認識(HAR)の4つのデータセットに対する手法の評価を行った。
ソフトバイオメトリクスに基づく属性表現は、有望な結果を示し、より大きなデータセットの必要性を強調している。
論文 参考訳(メタデータ) (2023-04-04T07:24:51Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Human Interaction Recognition Framework based on Interacting Body Part
Attention [24.913372626903648]
人間の相互作用の暗黙的および明示的な表現を同時に考慮する新しいフレームワークを提案する。
提案手法は, 相互作用部位の注意力を用いて, 異なる相互作用の微妙な違いを捉える。
提案手法の有効性を4つの公開データセットを用いて検証する。
論文 参考訳(メタデータ) (2021-01-22T06:52:42Z) - Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition [11.290467061493189]
本研究では,人間の行動にかかわるポーズや物体の観察から同時に学習することで,人間の行動認識に対する新しいアプローチを提案する。
提案手法は従来の手法より優れ,104Hzの処理速度で人間の行動認識のリアルタイム性能を得る。
論文 参考訳(メタデータ) (2020-03-26T22:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。