論文の概要: 3D Pose-Based Temporal Action Segmentation for Figure Skating: A Fine-Grained and Jump Procedure-Aware Annotation Approach
- arxiv url: http://arxiv.org/abs/2408.16638v1
- Date: Thu, 29 Aug 2024 15:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 13:12:46.435784
- Title: 3D Pose-Based Temporal Action Segmentation for Figure Skating: A Fine-Grained and Jump Procedure-Aware Annotation Approach
- Title(参考訳): フィギュアスケートのための3次元ポス法に基づく時間的アクションセグメンテーション:細粒度および跳躍手順を意識したアノテーションアプローチ
- Authors: Ryota Tanaka, Tomohiro Suzuki, Keisuke Fujii,
- Abstract要約: フィギュアスケートでは、スケーターの3D動作を見て技術判断を行い、その判断手順の一部が時間行動(TAS)課題とみなすことができる。
3Dポーズデータを必要とするTASタスクには、データセットの欠如と効果的な方法がある。
本研究では,光学マーカーレスモーションキャプチャーを用いて,複雑なフィギュアスケートジャンプと動的フィギュアスケートジャンプのFS-Jump3Dデータセットを初めて作成した。
また,TASモデルでジャンプ手順を学習可能な,詳細なフィギュアスケートジャンプTASデータセットアノテーション手法を提案する。
- 参考スコア(独自算出の注目度): 5.453385501324681
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding human actions from videos is essential in many domains, including sports. In figure skating, technical judgments are performed by watching skaters' 3D movements, and its part of the judging procedure can be regarded as a Temporal Action Segmentation (TAS) task. TAS tasks in figure skating that automatically assign temporal semantics to video are actively researched. However, there is a lack of datasets and effective methods for TAS tasks requiring 3D pose data. In this study, we first created the FS-Jump3D dataset of complex and dynamic figure skating jumps using optical markerless motion capture. We also propose a new fine-grained figure skating jump TAS dataset annotation method with which TAS models can learn jump procedures. In the experimental results, we validated the usefulness of 3D pose features as input and the fine-grained dataset for the TAS model in figure skating. FS-Jump3D Dataset is available at https://github.com/ryota-skating/FS-Jump3D.
- Abstract(参考訳): ビデオから人間の行動を理解することは、スポーツを含む多くの領域において不可欠である。
フィギュアスケートでは、スケーターの3D動作を見て技術判断を行い、その判断手順の一部が時間的アクションセグメンテーション(TAS)課題とみなすことができる。
ビデオに時間的意味論を自動的に割り当てるフィギュアスケートにおけるTASタスクを積極的に研究している。
しかし、3Dポーズデータを必要とするTASタスクにはデータセットや効果的な方法が不足している。
本研究では,光学マーカーレスモーションキャプチャーを用いて,複雑なフィギュアスケートジャンプと動的フィギュアスケートジャンプのFS-Jump3Dデータセットを初めて作成した。
また,TASモデルでジャンプ手順を学習可能な,詳細なフィギュアスケートジャンプTASデータセットアノテーション手法を提案する。
実験の結果,3次元ポーズの特徴を入力としての有用性と,図形スケートにおけるTASモデルの詳細なデータセットについて検証した。
FS-Jump3D Datasetはhttps://github.com/ryota-skating/FS-Jump3Dで利用可能である。
関連論文リスト
- YourSkatingCoach: A Figure Skating Video Benchmark for Fine-Grained Element Analysis [10.444961818248624]
データセットには、ジャンプ要素の454のビデオ、検出された各ビデオ中のスケータースケルトン、ジャンプの開始フレームと終了フレームのゴールドラベル、フィギュアスケートの動画ベンチマークが含まれている。
そこで本研究では,ジャンプの時間長を正確に検出することを目的とした,新しい動作解析タスクである空気時間検出を提案する。
細粒度ラベルの一般化性を検証するため、粗粒度タスクアクション分類ではなく、クロススポーツタスクとして他のスポーツにも同様のプロセスを適用する。
論文 参考訳(メタデータ) (2024-10-27T12:52:28Z) - S2O: Static to Openable Enhancement for Articulated 3D Objects [20.310491257189422]
本稿では,静的な3次元オブジェクトを静的なオブジェクトから生成するS2Oタスクを紹介する。
この課題に対処するための統一的なフレームワークを定式化し、オープンな3Dオブジェクトのデータセットをキュレートする。
論文 参考訳(メタデータ) (2024-09-27T16:34:13Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - Reconstructing Animatable Categories from Videos [65.14948977749269]
アニマタブルな3Dモデルの構築は、3Dスキャン、精巧な登録、手動リグの必要性のために難しい。
本稿では,一眼レフビデオからカテゴリ3Dモデルを構築するRACについて述べる。
私たちは、人間、猫、犬の3Dモデルが50-100のインターネットビデオから学習できることを示します。
論文 参考訳(メタデータ) (2023-05-10T17:56:21Z) - Generating Continual Human Motion in Diverse 3D Scenes [56.70255926954609]
本研究では,3次元シーンにまたがる人間の動きを誘導するアニメーターを合成する手法を提案する。
本研究では,連続的な動作合成問題を経路に沿って歩行し,キーポイントが指定した動作の内外への遷移に分解する。
我々のモデルは、つかんだり、座ったり、傾いたりといった多様な行動の長いシーケンスを生成することができる。
論文 参考訳(メタデータ) (2023-04-04T18:24:22Z) - Unsupervised Volumetric Animation [54.52012366520807]
非剛性変形物体の教師なし3次元アニメーションのための新しい手法を提案する。
本手法は,RGBビデオのみからオブジェクトの3次元構造とダイナミックスを学習する。
我々は,本モデルを用いて,単一ボリュームまたは少数の画像からアニマタブルな3Dオブジェクトを得ることができることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:54Z) - Accidental Turntables: Learning 3D Pose by Watching Objects Turn [36.71437141704823]
そこで本研究では,物体が回転する地中ビデオの新たな情報源を利用して,単視点3Dオブジェクトのポーズ推定モデルを学習する手法を提案する。
近年のインスタンス検出と特徴マッチングの進歩と相まって,従来の構造移動アルゴリズムが驚くほど正確な3Dポーズ推定を実現していることを示す。
論文 参考訳(メタデータ) (2022-12-13T00:46:26Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - SportsCap: Monocular 3D Human Motion Capture and Fine-grained
Understanding in Challenging Sports Videos [40.19723456533343]
SportsCap - 3Dの人間の動きを同時に捉え、モノラルな挑戦的なスポーツビデオ入力からきめ細かなアクションを理解するための最初のアプローチを提案する。
本手法は,組込み空間に先立って意味的かつ時間的構造を持つサブモーションを,モーションキャプチャと理解に活用する。
このようなハイブリッドな動き情報に基づいて,マルチストリーム空間時空間グラフ畳み込みネットワーク(ST-GCN)を導入し,詳細なセマンティックアクション特性を予測する。
論文 参考訳(メタデータ) (2021-04-23T07:52:03Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Temporal-Aware Self-Supervised Learning for 3D Hand Pose and Mesh
Estimation in Videos [32.12879364117658]
RGB画像から直接3Dハンドポーズを推定することは難しいが、注釈付き3Dポーズで深層モデルを訓練することで、近年着実に進歩している。
本稿では,RGB画像からの3Dポーズ推定モデルの訓練を行うためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-06T07:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。