論文の概要: Implementing AI-powered semantic character recognition in motor racing
sports
- arxiv url: http://arxiv.org/abs/2006.00904v1
- Date: Mon, 1 Jun 2020 12:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 07:26:32.082197
- Title: Implementing AI-powered semantic character recognition in motor racing
sports
- Title(参考訳): モータースポーツにおけるAIを活用したセマンティックキャラクタ認識の実装
- Authors: Jose David Fern\'andez Rodr\'iguez, David Daniel Albarrac\'in Molina,
Jes\'us Hormigo Cebolla
- Abstract要約: 本稿では,深層学習を用いた動的オーバーレイシステムを用いて,人間の介入なしに画面上での運転者追跡を行うシステムを提案する。
実装はすでに、フォーミュラEレースのテレビ製作会社によって、ライブレース中に展開されています。
実装中に直面する課題を提示し、その意義について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Oftentimes TV producers of motor-racing programs overlay visual and textual
media to provide on-screen context about drivers, such as a driver's name,
position or photo. Typically this is accomplished by a human producer who
visually identifies the drivers on screen, manually toggling the contextual
media associated to each one and coordinating with cameramen and other TV
producers to keep the racer in the shot while the contextual media is on
screen. This labor-intensive and highly dedicated process is mostly suited to
static overlays and makes it difficult to overlay contextual information about
many drivers at the same time in short shots. This paper presents a system that
largely automates these tasks and enables dynamic overlays using deep learning
to track the drivers as they move on screen, without human intervention. This
system is not merely theoretical, but an implementation has already been
deployed during live races by a TV production company at Formula E races. We
present the challenges faced during the implementation and discuss the
implications. Additionally, we cover future applications and roadmap of this
new technological development.
- Abstract(参考訳): しばしば、モーターレース番組のテレビプロデューサーは、視覚とテキストのメディアをオーバーレイし、ドライバーの名前、位置、写真などドライバーに関するオンスクリーンのコンテキストを提供する。
通常は、人間のプロデューサーが画面上のドライバーを視覚的に識別し、それぞれのドライバーに関連するコンテキストメディアを手動でタグ付けし、カメラマンや他のテレビプロデューサーとコーディネートして、コンテキストメディアがスクリーン上にある間にレーサーをショットに留める。
この労働集約的で高度に専用なプロセスは、主に静的オーバーレイに適しており、短いショットで多数のドライバーのコンテキスト情報を同時にオーバーレイすることが困難である。
本稿では,これらのタスクをほとんど自動化し,人間の介入なしに画面上でのドライバの動作を,ディープラーニングを用いて動的にオーバーレイするシステムを提案する。
このシステムは単なる理論ではなく、フォーミュラEレースのテレビ製作会社によるライブレース中にすでに実装が展開されている。
実装中に直面する課題を提示し,その影響について考察する。
さらに、この新しい技術開発の将来的応用とロードマップについても紹介する。
関連論文リスト
- Looking Inside Out: Anticipating Driver Intent From Videos [20.501288763809036]
ドライバーの意図は、ドライバーが危険な操作を試みている場合に車両を取り巻く警告など、道路の安全を改善するために利用することができる。
本研究では,キャビン内および外部カメラデータを利用して,将来の運転行動を予測するためのSOTA(State-of-the-art)性能を改善する手法を提案する。
我々のモデルは、既存のアプローチよりも正確により早くドライバーの操縦を予測し、精度は87.5%、平均予測時間は4.35秒前である。
論文 参考訳(メタデータ) (2023-12-03T16:24:50Z) - Assessing Drivers' Situation Awareness in Semi-Autonomous Vehicles: ASP
based Characterisations of Driving Dynamics for Modelling Scene
Interpretation and Projection [0.0]
我々は,運転者が状況に気付いているかを判断し,人間中心の支援を提供するための枠組みを提案する。
このフレームワークはロボット・オペレーティング・システム(ROS)内のモジュールシステムとして開発され、環境と運転者の状態を検知するモジュールを備えている。
本稿では、運転者の解釈とシーンの投影をモデル化し、推論するAnswer Set Programming(ASP)に基づくアプローチに焦点を当てる。
論文 参考訳(メタデータ) (2023-08-30T09:07:49Z) - Vision-Language Models can Identify Distracted Driver Behavior from
Naturalistic Videos [30.640261384907443]
本稿では,CLIPに基づく運転行動認識手法を提案する。
以上の結果から、このフレームワークは、ゼロショット転送における最先端のパフォーマンスと、2つの公開データセット上でドライバの状態を予測するためのビデオベースCLIPを提供する。
論文 参考訳(メタデータ) (2023-06-16T20:02:51Z) - Pedestrian detection with high-resolution event camera [0.0]
イベントカメラ(DVS)は、上記の問題に対処するための、潜在的に興味深い技術である。
本稿では,歩行者検出作業における深層学習によるイベントデータ処理の2つの方法の比較を行う。
ビデオフレーム,畳み込みニューラルネットワーク,非同期スパース畳み込みニューラルネットワークの形式で表現した。
論文 参考訳(メタデータ) (2023-05-29T10:57:59Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Indy Autonomous Challenge -- Autonomous Race Cars at the Handling Limits [81.22616193933021]
TUM Auton-omous Motorsportsは2021年10月、インディ・オートマチック・チャレンジに参加する。
インディアナポリス・モーター・スピードウェイのダララAV-21レースカー10台のうち1台を走らせることで、自動運転のソフトウェアスタックをベンチマークする。
これは、最も困難で稀な状況をマスターできる自律走行アルゴリズムを開発するための理想的な試験場である。
論文 参考訳(メタデータ) (2022-02-08T11:55:05Z) - Smart Director: An Event-Driven Directing System for Live Broadcasting [110.30675947733167]
Smart Directorは、典型的な人間向けブロードキャストプロセスを模倣して、ほぼ専門的なブロードキャストプログラムをリアルタイムで自動的に作成することを目指している。
本システムは,マルチカメラスポーツ放送における初のエンドツーエンド自動指向システムである。
論文 参考訳(メタデータ) (2022-01-11T16:14:41Z) - The Multimodal Driver Monitoring Database: A Naturalistic Corpus to
Study Driver Attention [44.94118128276982]
スマートな車両は、人間の運転者の行動や行動を監視して、必要な時に警告や介入を行う必要がある。
深層学習とコンピュータビジョンの最近の進歩は、人間の行動や活動を監視する上で大きな約束を示しています。
運転関連タスクの予測に高性能を提供するモデルのトレーニングには、ドメイン内の膨大なデータが必要である。
論文 参考訳(メタデータ) (2020-12-23T16:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。