論文の概要: Automated Wicket-Taking Delivery Segmentation and Weakness Detection in Cricket Videos Using OCR-Guided YOLOv8 and Trajectory Modeling
- arxiv url: http://arxiv.org/abs/2510.18405v1
- Date: Tue, 21 Oct 2025 08:27:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.151199
- Title: Automated Wicket-Taking Delivery Segmentation and Weakness Detection in Cricket Videos Using OCR-Guided YOLOv8 and Trajectory Modeling
- Title(参考訳): OCR誘導YOLOv8と軌道モデリングによるクリケット映像のWicket-Taking配信セグメンテーションと弱さ検出
- Authors: Mst Jannatun Ferdous, Masum Billah, Joy Karmoker, Mohd Ruhul Ameen, Akif Islam, Md. Omar Faruqe,
- Abstract要約: このシステムは、ピッチとボール検出にYOLOv8アーキテクチャを使用し、スコアカード抽出に光学文字認識(OCR)を併用して、ウィケットテイクモーメントを識別する。
このシステムは検出されたピッチの軌跡モデリングを可能にし、バッティングの弱点を特定するためのデータ駆動の洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an automated system for cricket video analysis that leverages deep learning techniques to extract wicket-taking deliveries, detect cricket balls, and model ball trajectories. The system employs the YOLOv8 architecture for pitch and ball detection, combined with optical character recognition (OCR) for scorecard extraction to identify wicket-taking moments. Through comprehensive image preprocessing, including grayscale transformation, power transformation, and morphological operations, the system achieves robust text extraction from video frames. The pitch detection model achieved 99.5% mean Average Precision at 50% IoU (mAP50) with a precision of 0.999, while the ball detection model using transfer learning attained 99.18% mAP50 with 0.968 precision and 0.978 recall. The system enables trajectory modeling on detected pitches, providing data-driven insights for identifying batting weaknesses. Experimental results on multiple cricket match videos demonstrate the effectiveness of this approach for automated cricket analytics, offering significant potential for coaching and strategic decision-making.
- Abstract(参考訳): 本稿では,クリケット映像の自動解析システムを提案する。このシステムは,深層学習技術を活用して,クリケットの成果の抽出,クリケット球の検出,およびボール軌跡のモデル化を行う。
このシステムは、ピッチとボール検出にYOLOv8アーキテクチャを使用し、スコアカード抽出に光学文字認識(OCR)を併用して、ウィケットテイクモーメントを識別する。
グレースケール変換、電力変換、形態的操作を含む包括的画像前処理により、ビデオフレームから堅牢なテキスト抽出を実現する。
ピッチ検出モデルは平均精度を50% IoU (mAP50) で0.999の精度で99.5%、トランスファーラーニングを用いたボール検出モデルは0.968の精度で99.18% mAP50に達した。
このシステムは検出されたピッチの軌跡モデリングを可能にし、バッティングの弱点を特定するためのデータ駆動の洞察を提供する。
複数のクリケットマッチビデオの実験結果は、この手法が自動クリケット分析に有効であることを示し、コーチングと戦略的意思決定に有意義な可能性を示唆している。
関連論文リスト
- Knowledge Distillation Detection for Open-weights Models [30.640429431816614]
本稿では,データ不要な入力合成と,蒸留検出のための統計的スコアを組み合わせたモデルに依存しないフレームワークを提案する。
我々のアプローチは分類モデルと生成モデルの両方に適用できる。
論文 参考訳(メタデータ) (2025-10-02T17:59:14Z) - Bearded Dragon Activity Recognition Pipeline: An AI-Based Approach to Behavioural Monitoring [0.6334523276812193]
本稿では,YOLO(You Only Look Once)オブジェクト検出モデルを用いて,リアルタイムビデオ解析のための自動システムを提案する。
5つのYOLO変異体を、1200枚の画像のカスタムデータセットで訓練し、ひげを生やしたドラゴン(600枚)、暖房ランプ(500枚)、クリケット(100枚)を包含した。
このシステムは、フレーム単位のオブジェクト座標を抽出し、時間的連続性を適用し、特定の振る舞いを分類するためにルールベースのロジックを使用する。
論文 参考訳(メタデータ) (2025-07-23T23:35:11Z) - HistoART: Histopathology Artifact Detection and Reporting Tool [37.31105955164019]
ワイルスライドイメージング(WSI)は、組織標本の詳細な高分解能検査のために広く用いられている。
WSIは、スライドの準備とスキャンの間に導入されたアーティファクトに弱いままです。
本稿では,WSIに対する3つのロバストなアーティファクト検出手法を提案し,比較する。
論文 参考訳(メタデータ) (2025-06-23T17:22:19Z) - Self-supervised Feature Extraction for Enhanced Ball Detection on Soccer Robots [2.111102681327218]
球検出性能を向上させるために,ドメイン適応型特徴抽出のための自己教師型学習フレームワークを提案する。
提案手法は,汎用事前学習モデルを用いて擬似ラベルを生成する。
実験の結果,提案したパイプラインは精度,F1スコア,IoUでベースラインモデルより優れ,コンバージェンスも高速であることがわかった。
論文 参考訳(メタデータ) (2025-06-20T08:21:34Z) - Automated Detection of Sport Highlights from Audio and Video Sources [0.0]
本研究では,音声やビデオからスポーツハイライト(HL)を自動的に検出するための,Deep Learningベースで軽量なアプローチを提案する。
我々のソリューションは、比較的小さなオーディオ・メル・スペクトログラムとグレースケール・ビデオ・フレームのデータセットに基づいて訓練されたディープラーニング(DL)モデルを活用し、オーディオ・ビデオ検出において、それぞれ89%と83%の有望な精度を達成する。
提案手法は,各種スポーツビデオコンテンツを対象としたHL自動検出のためのスケーラブルなソリューションを提供し,手動介入の必要性を軽減した。
論文 参考訳(メタデータ) (2025-01-27T14:50:13Z) - Two Scalable Approaches for Burned-Area Mapping Using U-Net and Landsat
Imagery [39.91303506884272]
本研究では,U-Netモデルに基づくバーン・エリアマッピングプロセスの自動化と最適化のための2つのアプローチを提案する。
研究領域の195の代表的な画像に基づくテストでは、ASモデルを用いたデータセットのバランスの向上により、より良いパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2023-11-29T05:42:25Z) - Whole-body Detection, Recognition and Identification at Altitude and
Range [57.445372305202405]
多様なデータセットに基づいて評価したエンドツーエンドシステムを提案する。
我々のアプローチでは、一般的な画像データセットで検出器を事前トレーニングし、BRIARの複雑なビデオや画像でそれを微調整する。
屋内・屋外・航空シナリオにおける様々な範囲や角度の異なる条件下で徹底的な評価を行う。
論文 参考訳(メタデータ) (2023-11-09T20:20:23Z) - An All Deep System for Badminton Game Analysis [0.0874967598360817]
CoachAI Badminton 2023 Track1イニシアチブは、バドミントンマッチビデオ内のイベントを自動的に検出する。
ノイズ検出データから発生する問題に対処するために,様々なディープラーニング手法を実装した。
私たちのシステムは1.0点中0.78点を獲得しました。
論文 参考訳(メタデータ) (2023-08-24T08:41:40Z) - A Graph-Based Method for Soccer Action Spotting Using Unsupervised
Player Classification [75.93186954061943]
アクションスポッティングには、ゲームのダイナミクス、イベントの複雑さ、ビデオシーケンスのバリエーションを理解することが含まれる。
本研究では, (a) 選手, 審判, ゴールキーパーをグラフのノードとして識別し, および (b) 時間的相互作用をグラフのシーケンスとしてモデル化することによって, 前者に焦点を当てる。
プレーヤ識別タスクでは,他のモダリティと組み合わせることで,平均mAPの57.83%の総合的な性能が得られる。
論文 参考訳(メタデータ) (2022-11-22T15:23:53Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Unsupervised Temporal Feature Aggregation for Event Detection in
Unstructured Sports Videos [10.230408415438966]
任意のカメラアングルを持つ非構造化環境を対象としたスポーツビデオにおけるイベント検出事例について検討した。
我々は、非構造化設定におけるプレイヤーの教師なし識別と、任意の射撃角度によるバリエーションを示すために訓練されたモデルの一般化の2つの主要な問題を同定し、解決する。
論文 参考訳(メタデータ) (2020-02-19T10:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。