論文の概要: Skarimva: Skeleton-based Action Recognition is a Multi-view Application
- arxiv url: http://arxiv.org/abs/2602.23231v1
- Date: Thu, 26 Feb 2026 17:10:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.805058
- Title: Skarimva: Skeleton-based Action Recognition is a Multi-view Application
- Title(参考訳): Skarimva: 骨格に基づくアクション認識はマルチビューアプリケーションである
- Authors: Daniel Bermuth, Alexander Poeppel, Wolfgang Reif,
- Abstract要約: 本研究は,複数のカメラビューを用いてより正確な3D骨格を三角測量することにより,最先端のアクション認識モデルの性能を大幅に向上できることを実証する。
- 参考スコア(独自算出の注目度): 44.79834103607383
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Human action recognition plays an important role when developing intelligent interactions between humans and machines. While there is a lot of active research on improving the machine learning algorithms for skeleton-based action recognition, not much attention has been given to the quality of the input skeleton data itself. This work demonstrates that by making use of multiple camera views to triangulate more accurate 3D~skeletons, the performance of state-of-the-art action recognition models can be improved significantly. This suggests that the quality of the input data is currently a limiting factor for the performance of these models. Based on these results, it is argued that the cost-benefit ratio of using multiple cameras is very favorable in most practical use-cases, therefore future research in skeleton-based action recognition should consider multi-view applications as the standard setup.
- Abstract(参考訳): 人間と機械の間のインテリジェントな相互作用を開発する際には、人間の行動認識が重要な役割を果たす。
骨格に基づく行動認識のための機械学習アルゴリズムの改善に関する活発な研究は多いが、入力骨格データ自体の品質にはあまり注目されていない。
本研究は,複数のカメラビューを用いてより正確な3D〜骨格を三角測量することにより,最先端のアクション認識モデルの性能を大幅に向上できることを実証する。
これは、入力データの品質が、これらのモデルの性能の制限要因であることを示している。
これらの結果から,複数台のカメラを用いた場合のコスト対効果比は,ほとんどのユースケースで非常に好ましいと論じられ,骨格型アクション認識における将来的な研究は,マルチビューアプリケーションを標準設定として検討すべきである。
関連論文リスト
- 3D Skeleton-Based Action Recognition: A Review [60.0580120274659]
3Dスケルトンに基づく行動認識は、コンピュータビジョンの分野において顕著な話題となっている。
以前のレビューでは主にモデル指向の視点を採用しており、しばしば骨格に基づく行動認識に関わる基本的なステップを無視している。
本稿では,骨格に基づく行動認識を理解するための包括的,タスク指向のフレームワークを提案することによって,これらの制約に対処することを目的とする。
論文 参考訳(メタデータ) (2025-06-01T09:04:12Z) - Action Recognition Utilizing YGAR Dataset [5.922172844641853]
高品質なアクションビデオデータの不足は、アクション認識の研究と応用においてボトルネックとなっている。
本稿では,新しい3次元アクションデータシミュレーションエンジンを提案し,その機能を示すために3組のサンプルデータを生成する。
論文 参考訳(メタデータ) (2023-10-02T00:43:45Z) - SkeleTR: Towrads Skeleton-based Action Recognition in the Wild [86.03082891242698]
SkeleTRは骨格に基づく行動認識のための新しいフレームワークである。
まず、グラフ畳み込みによる各骨格配列の人体内骨格力学をモデル化する。
次に、スタック化されたTransformerエンコーダを使用して、一般的なシナリオにおけるアクション認識に重要な人物のインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2023-09-20T16:22:33Z) - The Impact of Different Backbone Architecture on Autonomous Vehicle
Dataset [120.08736654413637]
バックボーンアーキテクチャによって抽出された特徴の質は、全体的な検出性能に大きな影響を与える可能性がある。
本研究は,KITTI,NuScenes,BDDの3つの自律走行車データセットを評価し,対象検出タスクにおける異なるバックボーンアーキテクチャの性能を比較した。
論文 参考訳(メタデータ) (2023-09-15T17:32:15Z) - Representation-Centric Survey of Skeletal Action Recognition and the ANUBIS Benchmark [43.00059447663327]
3Dスケルトンに基づく人間の行動認識は、従来のRGBや深さに基づくアプローチの強力な代替手段として登場した。
目覚ましい進歩にもかかわらず、現在の研究は様々な入力表現で断片化されている。
ANUBISは、既存のベンチマークで重要なギャップに対処するために設計された、大規模で挑戦的なスケルトンアクションデータセットである。
論文 参考訳(メタデータ) (2022-05-04T14:03:43Z) - Muscle Vision: Real Time Keypoint Based Pose Classification of Physical
Exercises [52.77024349608834]
ビデオから外挿された3D人間のポーズ認識は、リアルタイムソフトウェアアプリケーションを可能にするまで進歩した。
本稿では,ライブビデオフィード上で人間のポーズ認識を行う新しい機械学習パイプラインとWebインターフェースを提案する。
論文 参考訳(メタデータ) (2022-03-23T00:55:07Z) - Human Activity Recognition models using Limited Consumer Device Sensors
and Machine Learning [0.0]
ヒトの活動認識は、日常生活や医療環境における応用の増加とともに人気が高まっている。
本稿では,スマートフォンやスマートウォッチのセンサデータを用いた訓練に限定した各種モデルの発見について述べる。
結果は、スマートフォンとスマートウォッチのみから収集された限られたセンサーデータと、従来の機械学習の概念とアルゴリズムとを厳格に併用したモデルの可能性を示している。
論文 参考訳(メタデータ) (2022-01-21T06:54:05Z) - Revisiting Skeleton-based Action Recognition [107.08112310075114]
PoseC3Dは骨格に基づく行動認識の新しいアプローチであり、代わりに人間の骨格のベース表現としてグラフシーケンスを積み重ねる3Dヒートマップに依存している。
4つの挑戦的なデータセットにおいて、PoseC3Dは、スケルトン上で単独で使用し、RGBモダリティと組み合わせることで、常に優れたパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-04-28T06:32:17Z) - Sensor Data for Human Activity Recognition: Feature Representation and
Benchmarking [27.061240686613182]
HAR(Human Activity Recognition)の分野は、監視装置(センサなど)から取得したデータを取得し、分析することに焦点を当てている。
我々は、異なる機械学習(ML)技術を用いて、人間のアクティビティを正確に認識する問題に対処する。
論文 参考訳(メタデータ) (2020-05-15T00:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。