論文の概要: RacketVision: A Multiple Racket Sports Benchmark for Unified Ball and Racket Analysis
- arxiv url: http://arxiv.org/abs/2511.17045v2
- Date: Thu, 27 Nov 2025 05:13:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 13:46:31.759763
- Title: RacketVision: A Multiple Racket Sports Benchmark for Unified Ball and Racket Analysis
- Title(参考訳): RacketVision: 統一ボールとラケット分析のための複数のラケットスポーツベンチマーク
- Authors: Linfeng Dong, Yuchen Yang, Hao Wu, Wei Wang, Yuenan Hou, Zhihang Zhong, Xiao Sun,
- Abstract要約: RacketVisionは、スポーツ分析におけるコンピュータビジョンを前進させるための新しいデータセットである。
従来のボールの位置と並んで、ラケットポーズのための大規模できめ細かいアノテーションを提供する。
微粒な球追跡、ラケットのポーズ推定、予測的球軌道予測の3つのタスクに取り組むように設計されている。
- 参考スコア(独自算出の注目度): 27.850804936572896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce RacketVision, a novel dataset and benchmark for advancing computer vision in sports analytics, covering table tennis, tennis, and badminton. The dataset is the first to provide large-scale, fine-grained annotations for racket pose alongside traditional ball positions, enabling research into complex human-object interactions. It is designed to tackle three interconnected tasks: fine-grained ball tracking, articulated racket pose estimation, and predictive ball trajectory forecasting. Our evaluation of established baselines reveals a critical insight for multi-modal fusion: while naively concatenating racket pose features degrades performance, a CrossAttention mechanism is essential to unlock their value, leading to trajectory prediction results that surpass strong unimodal baselines. RacketVision provides a versatile resource and a strong starting point for future research in dynamic object tracking, conditional motion forecasting, and multimodal analysis in sports. Project page at https://github.com/OrcustD/RacketVision
- Abstract(参考訳): スポーツ分析におけるコンピュータビジョン向上のための新しいデータセットとベンチマークであるRacketVisionを紹介し,卓球,テニス,バドミントンについて紹介する。
このデータセットは、ラケットの大規模できめ細かいアノテーションを従来のボールの位置に合わせて提供し、複雑な人間と物体の相互作用の研究を可能にする最初のものである。
微粒な球追跡、ラケットのポーズ推定、予測的球軌道予測の3つのタスクに取り組むように設計されている。
確立されたベースラインの評価では,複数モーダル融合において重要な知見が得られている。ラケットの因果的結合は性能を低下させるが,CrossAttention機構はそれらの値のアンロックに不可欠であり,強い単調ベースラインを超える軌道予測結果をもたらす。
RacketVisionは、動的物体追跡、条件付きモーション予測、スポーツにおけるマルチモーダル分析における将来の研究の強力な出発点である。
Project page at https://github.com/OrcustD/RacketVision
関連論文リスト
- Action Anticipation from SoccerNet Football Video Broadcasts [84.87912817065506]
フットボール放送ビデオのアクション予測タスクについて紹介する。
我々は、5秒または10秒の予測ウィンドウ内で、観測されていない将来のフレームにおける将来の動作を予測する。
我々の研究は、自動放送、戦術分析、プレイヤーの意思決定における応用を可能にします。
論文 参考訳(メタデータ) (2025-04-16T12:24:33Z) - Towards long-term player tracking with graph hierarchies and domain-specific features [5.985204759362746]
本研究では、ジャージ番号、チームID、フィールド座標などのドメイン固有の特徴を活用する階層グラフベースのアプローチであるSportsSUSHIを導入し、追跡精度を向上させる。
SportsSUSHIは、サッカーネットデータセットと、新たに提案されたホッケー追跡データセット上で高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-28T17:12:40Z) - ShuttleSHAP: A Turn-Based Feature Attribution Approach for Analyzing
Forecasting Models in Badminton [52.21869064818728]
バドミントンにおけるプレイヤー戦術予測のための深層学習アプローチは、部分的にはラリープレイヤの相互作用に関する効果的な推論に起因する有望なパフォーマンスを示している。
本稿では,Shapley値の変量に基づいてバドミントンにおける予測モデルを解析するためのターンベース特徴属性手法であるShuttleSHAPを提案する。
論文 参考訳(メタデータ) (2023-12-18T05:37:51Z) - Estimation of control area in badminton doubles with pose information
from top and back view drone videos [11.679451300997016]
我々はバドミントンダブルスでトップとバックビューから最初の注釈付きドローンデータセットを提示する。
チームワークのパフォーマンスを評価するために,制御領域の確率マップを推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-07T11:18:39Z) - SoccerNet-Tracking: Multiple Object Tracking Dataset and Benchmark in
Soccer Videos [62.686484228479095]
本稿では,各30の200列からなる複数物体追跡のための新しいデータセットを提案する。
データセットは、バウンディングボックスとトラックレットIDで完全に注釈付けされている。
分析の結果,サッカービデオにおける複数の選手,審判,ボール追跡が解決されるには程遠いことがわかった。
論文 参考訳(メタデータ) (2022-04-14T12:22:12Z) - ShuttleNet: Position-aware Fusion of Rally Progress and Player Styles
for Stroke Forecasting in Badminton [18.524164548051417]
本稿では,ターンベースのスポーツにおいて,どのストロークをどこで返すべきかを客観的に判断することに焦点を当てる。
本稿では,ラリープログレスとプレーヤスタイルの融合フレームワーク(ShuttleNet)を提案する。
論文 参考訳(メタデータ) (2021-12-02T08:14:23Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。