論文の概要: Towards Ball Spin and Trajectory Analysis in Table Tennis Broadcast Videos via Physically Grounded Synthetic-to-Real Transfer
- arxiv url: http://arxiv.org/abs/2504.19863v1
- Date: Mon, 28 Apr 2025 14:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.484155
- Title: Towards Ball Spin and Trajectory Analysis in Table Tennis Broadcast Videos via Physically Grounded Synthetic-to-Real Transfer
- Title(参考訳): 台座テニス放送映像におけるボールスピンと軌道解析に向けて : 物理接地型合成-リール移動による検討
- Authors: Daniel Kienzle, Robin Schön, Rainer Lienhart, Shin'Ichi Satoh,
- Abstract要約: ビデオ中の対応する2次元軌道から初期スピンと3次元軌道を推定する新しい手法を提案する。
我々は,単純な単眼放送ビデオにおいて,スピンと軌道予測の手法を初めて提示する。
- 参考スコア(独自算出の注目度): 19.022628890838792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing a player's technique in table tennis requires knowledge of the ball's 3D trajectory and spin. While, the spin is not directly observable in standard broadcasting videos, we show that it can be inferred from the ball's trajectory in the video. We present a novel method to infer the initial spin and 3D trajectory from the corresponding 2D trajectory in a video. Without ground truth labels for broadcast videos, we train a neural network solely on synthetic data. Due to the choice of our input data representation, physically correct synthetic training data, and using targeted augmentations, the network naturally generalizes to real data. Notably, these simple techniques are sufficient to achieve generalization. No real data at all is required for training. To the best of our knowledge, we are the first to present a method for spin and trajectory prediction in simple monocular broadcast videos, achieving an accuracy of 92.0% in spin classification and a 2D reprojection error of 0.19% of the image diagonal.
- Abstract(参考訳): 卓球でプレーヤーのテクニックを分析するには、ボールの3次元軌跡とスピンを知る必要がある。
通常の放送ビデオではスピンは直接観察できないが、ビデオではボールの軌道から推測できることが示される。
ビデオ中の対応する2次元軌道から初期スピンと3次元軌道を推定する新しい手法を提案する。
放送ビデオに真実のラベルがないと、合成データのみに基づいてニューラルネットワークを訓練する。
入力データ表現の選択、物理的に正しい合成訓練データの選択、対象の強化の使用により、ネットワークは自然に実データに一般化する。
特に、これらの単純な手法は一般化を達成するのに十分である。
トレーニングには本当のデータがまったく必要ありません。
そこで本研究では,スピン分類精度92.0%,画像対角角の0.19%の2次元再投影誤差を達成し,単分子放送ビデオにおけるスピン・軌道予測法を初めて提示する。
関連論文リスト
- TT3D: Table Tennis 3D Reconstruction [11.84899291358663]
本稿では,オンライン卓球記録から正確な3次元球軌道を再構築するための新しい手法を提案する。
本手法は, ボールの飛来軌道の再投射誤差を最小限に抑えるバウンス状態を特定するために, ボールの運動の基盤となる物理を利用する。
我々のアプローチの重要な利点は、人間のポーズ推定やラケット追跡に頼ることなく、ボールスピンを推論できることである。
論文 参考訳(メタデータ) (2025-04-14T09:37:47Z) - Pose2Trajectory: Using Transformers on Body Pose to Predict Tennis Player's Trajectory [6.349503549199403]
テニス選手の身体関節データとボール位置から導かれるシーケンスとして,選手の将来の軌跡を予測するPose2Trajectoryを提案する。
我々は,ボール位置を持つ選手の関節および軌道情報に基づいて訓練されたエンコーダ・デコーダ変換器アーキテクチャを用いる。
複数のビデオから高品質なデータセットを生成し、物体検出と人間のポーズ推定手法を用いてテニス選手の動き予測を支援する。
論文 参考訳(メタデータ) (2024-11-07T07:50:58Z) - Neural Network-Based Tracking and 3D Reconstruction of Baseball Pitch Trajectories from Single-View 2D Video [0.0]
本稿では,2次元映像から3次元座標まで,野球球の軌跡の追跡と再構成のためのニューラルネットワークによるアプローチを提案する。
実験結果から,本手法は2次元入力から3次元軌跡を復元する際の精度が高いことが示された。
論文 参考訳(メタデータ) (2024-05-25T16:17:10Z) - CNN-based Game State Detection for a Foosball Table [1.612440288407791]
フォスボールのゲームでは、コンパクトで包括的なゲーム状態の記述は、フィギュアの位置シフトと回転と、時間とともにボールの位置で構成される。
本稿では,フォスボールのゲーム状態を決定するフィギュア検出システムについて述べる。
このデータセットを使用して、畳み込みニューラルネットワーク(CNN)ベースのエンドツーエンド回帰モデルをトレーニングし、各ロッドの回転とシフトを予測する。
論文 参考訳(メタデータ) (2024-04-08T09:48:02Z) - Refining Pre-Trained Motion Models [56.18044168821188]
我々は、自己教師付きトレーニングによる最先端の教師付きモデルの改善に挑戦する。
実世界の未学習ビデオから「クリーン」な訓練信号を得ることに重点を置いている。
本研究では,本手法が実動画における完全教師付き手法よりも信頼性が高いことを示す。
論文 参考訳(メタデータ) (2024-01-01T18:59:33Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Transferring Learning Trajectories of Neural Networks [2.2299983745857896]
深層ニューラルネットワーク(DNN)のトレーニングには計算コストがかかる。
我々は、与えられた学習軌跡を1つの初期パラメータから別のパラメータへ"転送する"という問題を定式化する。
移動パラメータが直接トレーニングの前に非自明な精度を達成できることを実証的に示し、スクラッチからトレーニングするよりもはるかに高速に訓練できることを実証した。
論文 参考訳(メタデータ) (2023-05-23T14:46:32Z) - TAP-Vid: A Benchmark for Tracking Any Point in a Video [84.94877216665793]
我々は、より長いビデオクリップで表面上の任意の物理点を追跡するという問題を定式化し、任意の点(TAP)を追尾する。
そこで本研究では,実世界の映像に正確な点線アノテーションを付加したTAP-Vidと,完全な接地木線トラックを付加した合成ビデオとを併用したベンチマーク,TAP-Vidを提案する。
本稿では, 簡易な終端点追跡モデルTAP-Netを提案する。
論文 参考訳(メタデータ) (2022-11-07T17:57:02Z) - What Stops Learning-based 3D Registration from Working in the Real
World? [53.68326201131434]
この研究は、3Dポイントのクラウド登録失敗の原因を特定し、その原因を分析し、解決策を提案する。
最終的に、これは最も実践的な3D登録ネットワーク(BPNet)に変換される。
我々のモデルは微調整をせずに実データに一般化し、商用センサで得られた見えない物体の点雲上で最大67%の精度に達する。
論文 参考訳(メタデータ) (2021-11-19T19:24:27Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。