論文の概要: Fine-grained Action Analysis: A Multi-modality and Multi-task Dataset of Figure Skating
- arxiv url: http://arxiv.org/abs/2307.02730v3
- Date: Tue, 9 Apr 2024 13:18:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 20:36:08.072744
- Title: Fine-grained Action Analysis: A Multi-modality and Multi-task Dataset of Figure Skating
- Title(参考訳): きめ細かいアクション分析:フィギュアスケートのマルチモーダリティとマルチタスクデータセット
- Authors: Sheng-Lan Liu, Yu-Ning Ding, Gang Yan, Si-Fan Zhang, Jin-Rong Zhang, Wen-Yue Chen, Xue-Hai Xu,
- Abstract要約: 本研究では,世界フィギュアスケート選手権から収集した多目的・マルチタスクのフィギュアスケートデータセットを提案する。
行動認識と行動品質評価を持つMMFSは、RGB、スケルトンをキャプチャし、空間ラベルや時間ラベルを含む256のカテゴリを持つ11671クリップからアクションのスコアを収集する。
- 参考スコア(独自算出の注目度): 10.391609684374268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The fine-grained action analysis of the existing action datasets is challenged by insufficient action categories, low fine granularities, limited modalities, and tasks. In this paper, we propose a Multi-modality and Multi-task dataset of Figure Skating (MMFS) which was collected from the World Figure Skating Championships. MMFS, which possesses action recognition and action quality assessment, captures RGB, skeleton, and is collected the score of actions from 11671 clips with 256 categories including spatial and temporal labels. The key contributions of our dataset fall into three aspects as follows. (1) Independently spatial and temporal categories are first proposed to further explore fine-grained action recognition and quality assessment. (2) MMFS first introduces the skeleton modality for complex fine-grained action quality assessment. (3) Our multi-modality and multi-task dataset encourage more action analysis models. To benchmark our dataset, we adopt RGB-based and skeleton-based baseline methods for action recognition and action quality assessment.
- Abstract(参考訳): 既存のアクションデータセットのきめ細かいアクション分析は、不十分なアクションカテゴリ、低い粒度、限られたモダリティ、タスクによって挑戦される。
本稿では,世界フィギュアスケート選手権から収集した多目的・マルチタスクのフィギュアスケートデータセットを提案する。
行動認識と行動品質評価を持つMMFSは、RGB、スケルトンをキャプチャし、空間ラベルや時間ラベルを含む256のカテゴリを持つ11671クリップからアクションのスコアを収集する。
データセットの主なコントリビューションは、以下の3つの側面に分けられます。
1) 個別に空間的・時間的カテゴリーを提案し, よりきめ細かい行動認識と品質評価について検討する。
2) MMFSは, 複雑な微細な動作品質評価のためのスケルトンモーフィズムを最初に導入する。
(3)マルチモーダリティとマルチタスクデータセットは、より多くのアクション分析モデルを促進する。
データセットをベンチマークするために、アクション認識とアクション品質評価のためのRGBベースおよびスケルトンベースベースライン手法を採用した。
関連論文リスト
- TSceneJAL: Joint Active Learning of Traffic Scenes for 3D Object Detection [26.059907173437114]
TSceneJALフレームワークはラベル付きデータとラベルなしデータの両方から、バランスのとれた、多様性のある、複雑なトラフィックシーンを効率的にサンプリングすることができる。
提案手法は,3次元オブジェクト検出タスクにおける既存の最先端手法よりも12%向上した。
論文 参考訳(メタデータ) (2024-12-25T11:07:04Z) - Recognizing Identities From Human Skeletons: A Survey on 3D Skeleton Based Person Re-Identification [60.939250172443586]
3Dスケルトンによる人物の再同定は、パターン認識コミュニティ内で注目を集める重要な研究分野である。
近年のSRID進歩の総合的なレビューと分析を行っている。
様々なベンチマークやプロトコルを用いて、最先端のSRID手法の徹底的な評価を行い、その有効性と効率性を比較した。
論文 参考訳(メタデータ) (2024-01-27T04:52:24Z) - Temporal Action Localization with Enhanced Instant Discriminability [66.76095239972094]
時間的行動検出(TAD)は、すべての行動境界とその対応するカテゴリを、トリミングされていないビデオで検出することを目的としている。
本稿では,既存の手法による動作境界の不正確な予測を解決するために,TriDetという一段階のフレームワークを提案する。
実験結果から,複数のTADデータセット上でのTriDetの堅牢性と最先端性能が示された。
論文 参考訳(メタデータ) (2023-09-11T16:17:50Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - The MI-Motion Dataset and Benchmark for 3D Multi-Person Motion
Prediction [13.177817435234449]
3D多対人動作予測は、個人行動や人との相互作用をモデル化する難しいタスクである。
本稿では,モーションキャプチャシステムによって収集された複数の個体の骨格配列を含むMI-Motionデータセットを提案する。
データセットには、人々のスケルトンポーズを対話する167kフレームが含まれており、5つの異なるアクティビティシーンに分類される。
論文 参考訳(メタデータ) (2023-06-23T15:38:22Z) - AIMS: All-Inclusive Multi-Level Segmentation [93.5041381700744]
視覚領域を3つのレベル(パート、エンティティ、リレーション)に分割するタスクであるAll-Inclusive Multi-Level(AIMS)を提案する。
また、アノテーションの不整合とタスク相関の2つの大きな課題に対処するために、マルチデータセットのマルチタスクトレーニングを通じて統合されたAIMSモデルを構築します。
論文 参考訳(メタデータ) (2023-05-28T16:28:49Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Quo Vadis, Skeleton Action Recognition ? [11.389618872289647]
我々は骨格に基づく人間の行動認識の現場における現在および今後のフロンティアについて研究する。
本研究では,Kinetics-700から得られたRGBビデオのキュレートしたサブセットであるSkeletics-152を紹介する。
我々は、Skeleton-MimeticsおよびMetaphoricsデータセットを導入して、文脈外アクションを含むように研究を拡張した。
論文 参考訳(メタデータ) (2020-07-04T11:02:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。