論文の概要: Automatic Camera Control and Directing with an Ultra-High-Definition
Collaborative Recording System
- arxiv url: http://arxiv.org/abs/2208.05213v1
- Date: Wed, 10 Aug 2022 08:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 13:12:31.376155
- Title: Automatic Camera Control and Directing with an Ultra-High-Definition
Collaborative Recording System
- Title(参考訳): 超高精細協調記録システムによる自動カメラ制御と誘導
- Authors: Bram Vanherle, Tim Vervoort, Nick Michiels, Philippe Bekaert
- Abstract要約: 複数のカメラアングルからイベントをキャプチャすることで、視聴者はそのイベントの最も完全で興味深い写真を得ることができる。
全方位カメラや広角カメラの導入により、イベントをより完全に捉えられるようになった。
イベントの複数の超高解像度ビデオストリームが与えられると、視覚的に喜ぶ一連のショットを生成することができるシステムを示す。
- 参考スコア(独自算出の注目度): 0.5735035463793007
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Capturing an event from multiple camera angles can give a viewer the most
complete and interesting picture of that event. To be suitable for
broadcasting, a human director needs to decide what to show at each point in
time. This can become cumbersome with an increasing number of camera angles.
The introduction of omnidirectional or wide-angle cameras has allowed for
events to be captured more completely, making it even more difficult for the
director to pick a good shot. In this paper, a system is presented that, given
multiple ultra-high resolution video streams of an event, can generate a
visually pleasing sequence of shots that manages to follow the relevant action
of an event. Due to the algorithm being general purpose, it can be applied to
most scenarios that feature humans. The proposed method allows for online
processing when real-time broadcasting is required, as well as offline
processing when the quality of the camera operation is the priority. Object
detection is used to detect humans and other objects of interest in the input
streams. Detected persons of interest, along with a set of rules based on
cinematic conventions, are used to determine which video stream to show and
what part of that stream is virtually framed. The user can provide a number of
settings that determine how these rules are interpreted. The system is able to
handle input from different wide-angle video streams by removing lens
distortions. Using a user study it is shown, for a number of different
scenarios, that the proposed automated director is able to capture an event
with aesthetically pleasing video compositions and human-like shot switching
behavior.
- Abstract(参考訳): 複数のカメラアングルからイベントをキャプチャすることで、視聴者にイベントの最も完全かつ興味深い写真を与えることができる。
放送に適したためには、人間監督が各時点に何を表示するかを決定する必要がある。
これはカメラアングルの数が増えると面倒になる。
全方位カメラや広角カメラの導入により、イベントをもっと完全に捉えられるようになり、監督が良い撮影を選ぶことがさらに困難になった。
本稿では、イベントの複数の超高解像度ビデオストリームが与えられた場合、イベントの関連アクションを追跡する視覚的に楽しい一連のショットを生成できるシステムを提案する。
アルゴリズムは汎用的であるため、人間を特徴とするほとんどのシナリオに適用することができる。
提案手法は,リアルタイム放送が必要な場合のオンライン処理と,カメラ操作の品質が優先される場合のオフライン処理を実現する。
オブジェクト検出は、入力ストリームに注目する人間や他のオブジェクトを検出するために使用される。
検出された関心のある人は、撮影規則に基づく一連のルールとともに、どのビデオストリームを表示するか、そのストリームのどの部分が事実上フレーム化されているかを決定するために使用される。
ユーザーはこれらのルールがどのように解釈されるかを決定するいくつかの設定を提供することができる。
このシステムは、レンズの歪みを取り除くことで、様々な広角ビデオストリームからの入力を処理できる。
ユーザスタディを用いて,複数のシナリオにおいて,提案する自動監督装置は,映像構成の美しさと人間的なショット切替動作でイベントをキャプチャできることを示した。
関連論文リスト
- Image Conductor: Precision Control for Interactive Video Synthesis [90.2353794019393]
映画製作とアニメーション制作は、しばしばカメラの遷移と物体の動きを調整するための洗練された技術を必要とする。
イメージコンダクタ(Image Conductor)は、カメラトランジションとオブジェクトの動きを正確に制御し、単一の画像からビデオアセットを生成する方法である。
論文 参考訳(メタデータ) (2024-06-21T17:55:05Z) - Pedestrian detection with high-resolution event camera [0.0]
イベントカメラ(DVS)は、上記の問題に対処するための、潜在的に興味深い技術である。
本稿では,歩行者検出作業における深層学習によるイベントデータ処理の2つの方法の比較を行う。
ビデオフレーム,畳み込みニューラルネットワーク,非同期スパース畳み込みニューラルネットワークの形式で表現した。
論文 参考訳(メタデータ) (2023-05-29T10:57:59Z) - Automatic Camera Trajectory Control with Enhanced Immersion for Virtual Cinematography [23.070207691087827]
実世界のシネマトグラフィーのルールは、監督がカメラをアクターと包括的に同期させることで没入感を生み出すことができることを示している。
この戦略に触発されて,アクターとカメラの3面の同期を可能にするディープカメラ制御フレームワークを提案する。
提案手法は,高品質な没入型撮影映像を定量的かつ質的に生成する。
論文 参考訳(メタデータ) (2023-03-29T22:02:15Z) - Temporal and Contextual Transformer for Multi-Camera Editing of TV Shows [83.54243912535667]
まず、コンサート、スポーツゲーム、ガラショー、コンテストを含む4つの異なるシナリオを用いて、この設定に関する新しいベンチマークを収集する。
14時間編集されたビデオに貢献する88時間の生のビデオが含まれている。
歴史的ショットやその他の視点からのヒントを利用してショット遷移決定を行う新しいアプローチである時間的・文脈的変換器を提案する。
論文 参考訳(メタデータ) (2022-10-17T04:11:23Z) - TimeReplayer: Unlocking the Potential of Event Cameras for Video
Interpolation [78.99283105497489]
イベントカメラは、任意に複雑な動きのあるビデオを可能にする新しいデバイスである。
本稿では,コモディティカメラが捉えた映像とイベントとを補間するTimeReplayerアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-25T18:57:42Z) - Smart Director: An Event-Driven Directing System for Live Broadcasting [110.30675947733167]
Smart Directorは、典型的な人間向けブロードキャストプロセスを模倣して、ほぼ専門的なブロードキャストプログラムをリアルタイムで自動的に作成することを目指している。
本システムは,マルチカメラスポーツ放送における初のエンドツーエンド自動指向システムである。
論文 参考訳(メタデータ) (2022-01-11T16:14:41Z) - Sampling Based Scene-Space Video Processing [89.49726406622842]
ビデオ処理のための新しいサンプリングベースのフレームワークを提案する。
奥行きのミスやカメラのポーズ推定がある場合、高品質なシーン空間ビデオ効果を可能にする。
カジュアルにキャプチャーされた、手持ちの、動く、圧縮された、モノラルなビデオの結果を提示する。
論文 参考訳(メタデータ) (2021-02-05T05:55:04Z) - Batteries, camera, action! Learning a semantic control space for
expressive robot cinematography [15.895161373307378]
我々は,意味空間における複雑なカメラ位置決めパラメータの編集を可能にする,データ駆動型フレームワークを開発した。
まず,写真実写シミュレータにおいて,多様な撮影範囲を持つ映像クリップのデータベースを作成する。
クラウドソーシングフレームワークには何百人もの参加者が参加して,各クリップのセマンティック記述子セットのスコアを取得しています。
論文 参考訳(メタデータ) (2020-11-19T21:56:53Z) - 4D Visualization of Dynamic Events from Unconstrained Multi-View Videos [77.48430951972928]
ハンドヘルド複数カメラで撮影したビデオから4次元の時空間で動的事象を可視化するためのデータ駆動型アプローチを提案する。
このアプローチの鍵となるのは、イベントの静的および動的側面を構成するために、シーン固有の自己教師型ニューラルネットワークを使用することです。
このモデルでは,(1)時刻の凍結と視界探索,(2)視点の凍結と時間移動,(3)時間と視界の同時変更を行う仮想カメラを作成することができる。
論文 参考訳(メタデータ) (2020-05-27T17:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。