論文の概要: ExposureEngine: Oriented Logo Detection and Sponsor Visibility Analytics in Sports Broadcasts
- arxiv url: http://arxiv.org/abs/2510.04739v1
- Date: Mon, 06 Oct 2025 12:11:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.843052
- Title: ExposureEngine: Oriented Logo Detection and Sponsor Visibility Analytics in Sports Broadcasts
- Title(参考訳): ExposureEngine:スポーツ放送におけるオリエントローゴ検出とスポンサー可視性分析
- Authors: Mehdi Houshmand Sarkhoosh, Frøy Øye, Henrik Nestor Sørlie, Nam Hoang Vu, Dag Johansen, Cise Midoglu, Tomas Kupka, Pål Halvorsen,
- Abstract要約: 本稿では,可視化分析の精度向上を目的としたエンドツーエンドシステムであるExposureEngineを紹介する。
本手法は,画面上の向きに関係なく,各ロゴに幾何学的に適合するオリエントバウンディングボックス (OBB) を推定する。
本モデルでは, 平均精度0.859, 精度0.96, リコール0.87を実現し, ロゴのローカライズ性能が向上した。
- 参考スコア(独自算出の注目度): 1.7406449444608654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantifying sponsor visibility in sports broadcasts is a critical marketing task traditionally hindered by manual, subjective, and unscalable analysis methods. While automated systems offer an alternative, their reliance on axis-aligned Horizontal Bounding Box (HBB) leads to inaccurate exposuremetrics when logos appear rotated or skewed due to dynamic camera angles and perspective distortions. This paper introduces ExposureEngine, an end-to-end system designed for accurate, rotation-aware sponsor visibility analytics in sports broadcasts, demonstrated in a soccer case study. Our approach predicts Oriented Bounding Box (OBB) to provide a geometrically precise fit to each logo regardless of the orientation on-screen. To train and evaluate our detector, we developed a new dataset comprising 1,103 frames from Swedish elite soccer, featuring 670 unique sponsor logos annotated with OBBs. Our model achieves a mean Average Precision (mAP@0.5) of 0.859, with a precision of 0.96 and recall of 0.87, demonstrating robust performance in localizing logos under diverse broadcast conditions. The system integrates these detections into an analytical pipeline that calculates precise visibility metrics, such as exposure duration and on-screen coverage. Furthermore, we incorporate a language-driven agentic layer, enabling users to generate reports, summaries, and media content through natural language queries. The complete system, including the dataset and the analytics dashboard, provides a comprehensive solution for auditable and interpretable sponsor measurement in sports media. An overview of the ExposureEngine is available online: https://youtu.be/tRw6OBISuW4 .
- Abstract(参考訳): スポーツ放送におけるスポンサーの視認性を定量化することは、伝統的に手動、主観的、そして計算不能な分析方法によって妨げられる重要なマーケティングタスクである。
自動システムは代替手段を提供するが、軸方向の水平バウンディングボックス(HBB)への依存は、動的なカメラの角度と視点の歪みによってロゴが回転または歪んだときに不正確な露出測定をもたらす。
本稿では,スポーツ放送におけるスポンサーの正確な可視化分析を目的としたエンドツーエンドシステムであるExposureEngineを紹介し,サッカーケーススタディで実証した。
本手法は,画面上の向きに関係なく,各ロゴに幾何学的に適合するオリエントバウンディングボックス (OBB) を推定する。
検知器のトレーニングと評価のために,スウェーデンのエリートサッカーの1,103フレームからなる新しいデータセットを開発した。
本モデルでは、平均平均精度0.859、精度0.96、リコール0.87を達成し、多様な放送条件下でのロゴのローカライズ性能を示す。
システムはこれらの検出を分析パイプラインに統合し、露光時間やスクリーン上のカバレッジなどの正確な可視性メトリクスを計算する。
さらに,自然言語クエリを通じてレポート,要約,メディアコンテンツを生成可能な,言語駆動型エージェント層を組み込んだ。
データセットと分析ダッシュボードを含む完全なシステムは、スポーツメディアにおける監査可能かつ解釈可能なスポンサー測定のための包括的なソリューションを提供する。
ExposureEngineの概要はオンラインで公開されている。
関連論文リスト
- SAM2Auto: Auto Annotation Using FLASH [13.638155035372835]
VLM(Vision-Language Models)は、注釈付きデータセットの不足により、大規模言語モデルに遅れている。
SAM2Autoは、人間の介入やデータセット固有のトレーニングを必要としないビデオデータセットのための、最初の完全に自動化されたアノテーションパイプラインである。
本システムでは, 検出誤差を最小限に抑えつつ, ビデオシーケンス全体にわたって一貫した物体追跡を確実にするため, 統計的手法を用いている。
論文 参考訳(メタデータ) (2025-06-09T15:15:15Z) - Automated Detection of Sport Highlights from Audio and Video Sources [0.0]
本研究では,音声やビデオからスポーツハイライト(HL)を自動的に検出するための,Deep Learningベースで軽量なアプローチを提案する。
我々のソリューションは、比較的小さなオーディオ・メル・スペクトログラムとグレースケール・ビデオ・フレームのデータセットに基づいて訓練されたディープラーニング(DL)モデルを活用し、オーディオ・ビデオ検出において、それぞれ89%と83%の有望な精度を達成する。
提案手法は,各種スポーツビデオコンテンツを対象としたHL自動検出のためのスケーラブルなソリューションを提供し,手動介入の必要性を軽減した。
論文 参考訳(メタデータ) (2025-01-27T14:50:13Z) - Understanding Long Videos via LLM-Powered Entity Relation Graphs [51.13422967711056]
GraphVideoAgentは、ビデオシーケンスを通して視覚的エンティティ間の進化する関係をマップし、監視するフレームワークである。
当社の手法は,業界ベンチマークと比較した場合,顕著な効果を示す。
論文 参考訳(メタデータ) (2025-01-27T10:57:24Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - A Multimodal Framework for Video Ads Understanding [64.70769354696019]
広告ビデオコンテンツの構造化分析能力を向上させるためのマルチモーダルシステムの開発を行う。
2021年のTAAC最終リーダーボードでは, 位置推定と予測精度を考慮した0.2470のスコアを得た。
論文 参考訳(メタデータ) (2021-08-29T16:06:00Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - TTNet: Real-time temporal and spatial video analysis of table tennis [5.156484100374058]
本稿では,高精細度卓球ビデオのリアルタイム処理を目的としたニューラルネットワークを提案する。
このアプローチは、自動参照システムによるスコア更新を推論するためのコア情報を提供する。
イベントをラベル付けした120fpsのテーブルテニスゲームのビデオ付きマルチタスクデータセットOpenTTGamesを公開している。
論文 参考訳(メタデータ) (2020-04-21T11:57:51Z) - Unsupervised Temporal Feature Aggregation for Event Detection in
Unstructured Sports Videos [10.230408415438966]
任意のカメラアングルを持つ非構造化環境を対象としたスポーツビデオにおけるイベント検出事例について検討した。
我々は、非構造化設定におけるプレイヤーの教師なし識別と、任意の射撃角度によるバリエーションを示すために訓練されたモデルの一般化の2つの主要な問題を同定し、解決する。
論文 参考訳(メタデータ) (2020-02-19T10:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。