論文の概要: YO-CSA-T: A Real-time Badminton Tracking System Utilizing YOLO Based on Contextual and Spatial Attention
- arxiv url: http://arxiv.org/abs/2501.06472v1
- Date: Sat, 11 Jan 2025 08:00:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:28:24.820004
- Title: YO-CSA-T: A Real-time Badminton Tracking System Utilizing YOLO Based on Contextual and Spatial Attention
- Title(参考訳): YOLOを利用したリアルタイムバドミントントラッキングシステムYO-CSA-T
- Authors: Yuan Lai, Zhiwei Shi, Chengxi Zhu,
- Abstract要約: YO-CSAは、3Dシャトルコックのリアルタイム軌道検出システムである。
YO-CSAによって抽出された2次元座標列を立体視を用いて3次元空間にマッピングする。
精度は90.43% mAP@0.75で、YOLOv8sとYOLO11sを上回ります。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The 3D trajectory of a shuttlecock required for a badminton rally robot for human-robot competition demands real-time performance with high accuracy. However, the fast flight speed of the shuttlecock, along with various visual effects, and its tendency to blend with environmental elements, such as court lines and lighting, present challenges for rapid and accurate 2D detection. In this paper, we first propose the YO-CSA detection network, which optimizes and reconfigures the YOLOv8s model's backbone, neck, and head by incorporating contextual and spatial attention mechanisms to enhance model's ability in extracting and integrating both global and local features. Next, we integrate three major subtasks, detection, prediction, and compensation, into a real-time 3D shuttlecock trajectory detection system. Specifically, our system maps the 2D coordinate sequence extracted by YO-CSA into 3D space using stereo vision, then predicts the future 3D coordinates based on historical information, and re-projects them onto the left and right views to update the position constraints for 2D detection. Additionally, our system includes a compensation module to fill in missing intermediate frames, ensuring a more complete trajectory. We conduct extensive experiments on our own dataset to evaluate both YO-CSA's performance and system effectiveness. Experimental results show that YO-CSA achieves a high accuracy of 90.43% mAP@0.75, surpassing both YOLOv8s and YOLO11s. Our system performs excellently, maintaining a speed of over 130 fps across 12 test sequences.
- Abstract(参考訳): 人ロボット競技用のバドミントンラリーロボットに必要なシャトルコックの3D軌道は、高精度でリアルタイムのパフォーマンスを要求する。
しかし、シャトルコックの高速飛行速度は、様々な視覚効果とともに、コートラインや照明などの環境要素と混ざり合う傾向にあり、迅速かつ正確な2D検出の課題を提示している。
本稿では, YOLOv8sモデルのバックボーン, ネック, ヘッドの最適化と再構成を行うYO-CSA検出ネットワークを提案する。
次に、検出、予測、補償の3つの主要なサブタスクをリアルタイム3Dシャトル軌道検出システムに統合する。
具体的には、YO-CSAが抽出した2次元座標列をステレオビジョンを用いて3次元空間にマッピングし、過去の情報に基づいて将来の3次元座標を予測し、それらを左右のビューに再投影して2次元検出のための位置制約を更新する。
さらに,システムには,欠落した中間フレームを補うための補償モジュールが含まれており,より完全な軌道が確保されている。
我々は、YO-CSAの性能とシステムの有効性を評価するために、独自のデータセットで広範な実験を行う。
実験の結果、YO-CSAの精度は90.43% mAP@0.75で、YOLOv8sとYOLO11sを上回った。
本システムでは,12個のテストシーケンスで130fps以上の速度を維持することができる。
関連論文リスト
- Fast Occupancy Network [15.759329665907229]
Occupancy Networkは、エゴ車周辺の特定3次元空間におけるボクセルのカテゴリを予測する。
本稿では, 変形可能な2次元畳み込み層を用いて, BEV機能を3次元ボクセル機能に引き上げる, 単純かつ高速なOccupancy Networkモデルを提案する。
また、計算コストを少なくして性能を向上させるために、効率的なボクセル特徴ピラミッドネットワーク(FPN)モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-10T03:46:03Z) - ALOcc: Adaptive Lifting-based 3D Semantic Occupancy and Cost Volume-based Flow Prediction [89.89610257714006]
既存の手法は、これらのタスクの要求に応えるために高い精度を優先する。
本稿では,3次元セマンティック占有率予測とフロー推定のための一連の改善点を紹介する。
私たちの純粋な時間的アーキテクチャフレームワークであるALOccは、速度と精度の最適なトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - VECTOR: Velocity-Enhanced GRU Neural Network for Real-Time 3D UAV Trajectory Prediction [2.1825723033513165]
シーケンスベースニューラルネットワークにおけるGRU(Gated Recurrent Units)を用いた新しいトラジェクトリ予測手法を提案する。
我々は、合成と実世界のUAV軌跡データの両方を使用し、幅広い飛行パターン、速度、機敏性を捉えています。
GRUベースのモデルは、平均二乗誤差(MSE)を2×10-8に抑えながら、最先端のRNNアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-24T07:16:42Z) - YOLO-BEV: Generating Bird's-Eye View in the Same Way as 2D Object
Detection [8.082514573754954]
YOLO-BEVは、ユニークな周囲カメラのセットアップを利用して、車体環境の2D鳥眼ビューを生成する効率的なフレームワークである。
リアルタイム車体認識タスクにおけるYOLO-BEVの実現可能性について予備的な検証を行った。
論文 参考訳(メタデータ) (2023-10-26T13:16:27Z) - Realistic Full-Body Tracking from Sparse Observations via Joint-Level
Modeling [13.284947022380404]
頭部と手の3つの追跡信号だけで、正確でスムーズな全身運動を得ることができる2段階のフレームワークを提案する。
本フレームワークは,第1段階の関節レベル特徴を明示的にモデル化し,第2段階の関節レベル相関を捉えるために,空間的および時間的トランスフォーマーブロックの交互化に時間的トークンとして利用する。
AMASSモーションデータセットと実捕集データに関する広範な実験により,提案手法は既存の手法と比較して,より正確で滑らかな動きを実現することができることを示す。
論文 参考訳(メタデータ) (2023-08-17T08:27:55Z) - Uncertainty-aware State Space Transformer for Egocentric 3D Hand
Trajectory Forecasting [79.34357055254239]
ハンドトラジェクトリ予測は、AR/VRシステムと対話する際の人間の意図の迅速な理解を可能にするために不可欠である。
既存の方法では、現実の3Dアプリケーションでは不十分な2次元画像空間でこの問題に対処する。
初対人視点で観察されたRGBビデオから3次元空間のハンドトラジェクトリを予測することを目的とした,エゴセントリックな3Dハンドトラジェクトリ予測タスクを構築した。
論文 参考訳(メタデータ) (2023-07-17T04:55:02Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。