論文の概要: Implementing AI-powered semantic character recognition in motor racing
sports
- arxiv url: http://arxiv.org/abs/2006.00904v1
- Date: Mon, 1 Jun 2020 12:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 07:26:32.082197
- Title: Implementing AI-powered semantic character recognition in motor racing
sports
- Title(参考訳): モータースポーツにおけるAIを活用したセマンティックキャラクタ認識の実装
- Authors: Jose David Fern\'andez Rodr\'iguez, David Daniel Albarrac\'in Molina,
Jes\'us Hormigo Cebolla
- Abstract要約: 本稿では,深層学習を用いた動的オーバーレイシステムを用いて,人間の介入なしに画面上での運転者追跡を行うシステムを提案する。
実装はすでに、フォーミュラEレースのテレビ製作会社によって、ライブレース中に展開されています。
実装中に直面する課題を提示し、その意義について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Oftentimes TV producers of motor-racing programs overlay visual and textual
media to provide on-screen context about drivers, such as a driver's name,
position or photo. Typically this is accomplished by a human producer who
visually identifies the drivers on screen, manually toggling the contextual
media associated to each one and coordinating with cameramen and other TV
producers to keep the racer in the shot while the contextual media is on
screen. This labor-intensive and highly dedicated process is mostly suited to
static overlays and makes it difficult to overlay contextual information about
many drivers at the same time in short shots. This paper presents a system that
largely automates these tasks and enables dynamic overlays using deep learning
to track the drivers as they move on screen, without human intervention. This
system is not merely theoretical, but an implementation has already been
deployed during live races by a TV production company at Formula E races. We
present the challenges faced during the implementation and discuss the
implications. Additionally, we cover future applications and roadmap of this
new technological development.
- Abstract(参考訳): しばしば、モーターレース番組のテレビプロデューサーは、視覚とテキストのメディアをオーバーレイし、ドライバーの名前、位置、写真などドライバーに関するオンスクリーンのコンテキストを提供する。
通常は、人間のプロデューサーが画面上のドライバーを視覚的に識別し、それぞれのドライバーに関連するコンテキストメディアを手動でタグ付けし、カメラマンや他のテレビプロデューサーとコーディネートして、コンテキストメディアがスクリーン上にある間にレーサーをショットに留める。
この労働集約的で高度に専用なプロセスは、主に静的オーバーレイに適しており、短いショットで多数のドライバーのコンテキスト情報を同時にオーバーレイすることが困難である。
本稿では,これらのタスクをほとんど自動化し,人間の介入なしに画面上でのドライバの動作を,ディープラーニングを用いて動的にオーバーレイするシステムを提案する。
このシステムは単なる理論ではなく、フォーミュラEレースのテレビ製作会社によるライブレース中にすでに実装が展開されている。
実装中に直面する課題を提示し,その影響について考察する。
さらに、この新しい技術開発の将来的応用とロードマップについても紹介する。
関連論文リスト
- ChatCam: Empowering Camera Control through Conversational AI [67.31920821192323]
ChatCamは、ユーザーとの会話を通じてカメラの動きをナビゲートするシステムである。
そこで本研究では,テキスト条件付きカメラ軌道生成のためのGPTに基づく自己回帰モデルであるCineGPTを提案する。
また、正確なカメラ軌道配置を保証するアンカー決定器も開発した。
論文 参考訳(メタデータ) (2024-09-25T20:13:41Z) - AutoDirector: Online Auto-scheduling Agents for Multi-sensory Composition [149.89952404881174]
AutoDirectorはインタラクティブな多感覚合成フレームワークで、ロングショット、特殊効果、音楽スコア、ダビング、リップシンクをサポートする。
自動スケジューリングにより多感フィルム製造の効率を向上し、ユーザニーズを満たすインタラクティブなタスクの修正と改善を支援する。
論文 参考訳(メタデータ) (2024-08-21T12:18:22Z) - Multi-Frame Vision-Language Model for Long-form Reasoning in Driver Behavior Analysis [13.569854626496314]
我々は,新しいマルチモーダル・インストラクション・チューニング・データセットとドライバ・コーチング・システムを構築した。
我々のデータセットは、言語モデルが様々な危険な運転シナリオで視覚的な指示を学習することを可能にする。
本モデルは,ダッシュカム搭載車両における運転行動の包括的範囲を把握し,路面カメラおよび運転者向けRGBカメラ映像の訓練を行う。
論文 参考訳(メタデータ) (2024-08-03T06:40:00Z) - PLayerTV: Advanced Player Tracking and Identification for Automatic Soccer Highlight Clips [2.3920366469105088]
PlayerTVは、サッカービデオの自動プレーヤー追跡と識別に最先端のAI技術を活用する革新的なフレームワークである。
オブジェクトの検出と追跡、光学文字認識(OCR)、色解析を統合することで、PlayerTVはプレイヤー固有のハイライトクリップの生成を容易にする。
ノルウェーのエリテセリエンリーグのデータセットでテストしたコアパイプラインの評価から得られた予備的な結果は、PlayerTVがチームや選手を正確にかつ効率的に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-07-22T22:27:57Z) - Assessing Drivers' Situation Awareness in Semi-Autonomous Vehicles: ASP
based Characterisations of Driving Dynamics for Modelling Scene
Interpretation and Projection [0.0]
我々は,運転者が状況に気付いているかを判断し,人間中心の支援を提供するための枠組みを提案する。
このフレームワークはロボット・オペレーティング・システム(ROS)内のモジュールシステムとして開発され、環境と運転者の状態を検知するモジュールを備えている。
本稿では、運転者の解釈とシーンの投影をモデル化し、推論するAnswer Set Programming(ASP)に基づくアプローチに焦点を当てる。
論文 参考訳(メタデータ) (2023-08-30T09:07:49Z) - Pedestrian detection with high-resolution event camera [0.0]
イベントカメラ(DVS)は、上記の問題に対処するための、潜在的に興味深い技術である。
本稿では,歩行者検出作業における深層学習によるイベントデータ処理の2つの方法の比較を行う。
ビデオフレーム,畳み込みニューラルネットワーク,非同期スパース畳み込みニューラルネットワークの形式で表現した。
論文 参考訳(メタデータ) (2023-05-29T10:57:59Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Smart Director: An Event-Driven Directing System for Live Broadcasting [110.30675947733167]
Smart Directorは、典型的な人間向けブロードキャストプロセスを模倣して、ほぼ専門的なブロードキャストプログラムをリアルタイムで自動的に作成することを目指している。
本システムは,マルチカメラスポーツ放送における初のエンドツーエンド自動指向システムである。
論文 参考訳(メタデータ) (2022-01-11T16:14:41Z) - The Multimodal Driver Monitoring Database: A Naturalistic Corpus to
Study Driver Attention [44.94118128276982]
スマートな車両は、人間の運転者の行動や行動を監視して、必要な時に警告や介入を行う必要がある。
深層学習とコンピュータビジョンの最近の進歩は、人間の行動や活動を監視する上で大きな約束を示しています。
運転関連タスクの予測に高性能を提供するモデルのトレーニングには、ドメイン内の膨大なデータが必要である。
論文 参考訳(メタデータ) (2020-12-23T16:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。