論文の概要: Automatic cinematography for 360 video
- arxiv url: http://arxiv.org/abs/2009.05388v1
- Date: Wed, 2 Sep 2020 17:14:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 19:37:35.004493
- Title: Automatic cinematography for 360 video
- Title(参考訳): 360度ビデオの自動撮影
- Authors: Hannes Fassold
- Abstract要約: 視覚的に興味深いカメラパスを360度ビデオから自動生成する方法について述べる。
シーンオブジェクトからの情報に基づいて、異なるショットタイプの複数のショット仮説を構築し、最適なショットを描画する。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe our method for automatic generation of a visually interesting
camera path (automatic cinematography)from a 360 video. Based on the
information from the scene objects, multiple shot hypotheses for different shot
types are constructed and the best one is rendered.
- Abstract(参考訳): 我々は360度ビデオから視覚的に興味深いカメラパス(オートマチックシネマトグラフィー)を自動生成する方法について述べる。
シーンオブジェクトからの情報に基づいて、異なるショットタイプのための複数のショット仮説を構築し、最善のショットを描画する。
関連論文リスト
- Image Conductor: Precision Control for Interactive Video Synthesis [90.2353794019393]
映画製作とアニメーション制作は、しばしばカメラの遷移と物体の動きを調整するための洗練された技術を必要とする。
イメージコンダクタ(Image Conductor)は、カメラトランジションとオブジェクトの動きを正確に制御し、単一の画像からビデオアセットを生成する方法である。
論文 参考訳(メタデータ) (2024-06-21T17:55:05Z) - Movie101v2: Improved Movie Narration Benchmark [53.54176725112229]
映像の自動ナレーションは、視覚障害者を支援するために、映像に合わせたプロット記述を生成することを目的としている。
映画ナレーションに特化して設計されたデータ品質を向上した大規模バイリンガルデータセットであるMovie101v2を紹介する。
新しいベンチマークに基づいて,GPT-4Vを含む多数の視覚言語モデルをベースライン化し,ナレーション生成における課題の詳細な分析を行う。
論文 参考訳(メタデータ) (2024-04-20T13:15:27Z) - Replay: Multi-modal Multi-view Acted Videos for Casual Holography [76.49914880351167]
Replayは、社会的に対話する人間のマルチビュー、マルチモーダルビデオのコレクションである。
全体として、データセットには4000分以上の映像と700万のタイムスタンプ付き高解像度フレームが含まれている。
Replayデータセットには、新規ビュー合成、3D再構成、新規ビュー音響合成、人体と顔の分析、生成モデルの訓練など、多くの潜在的な応用がある。
論文 参考訳(メタデータ) (2023-07-22T12:24:07Z) - Automatic Camera Trajectory Control with Enhanced Immersion for Virtual Cinematography [23.070207691087827]
実世界のシネマトグラフィーのルールは、監督がカメラをアクターと包括的に同期させることで没入感を生み出すことができることを示している。
この戦略に触発されて,アクターとカメラの3面の同期を可能にするディープカメラ制御フレームワークを提案する。
提案手法は,高品質な没入型撮影映像を定量的かつ質的に生成する。
論文 参考訳(メタデータ) (2023-03-29T22:02:15Z) - Dynamic Storyboard Generation in an Engine-based Virtual Environment for
Video Production [92.14891282042764]
VDS(Virtual Dynamic Storyboard)を導入し,仮想環境でのストーリーボード撮影を可能にする。
形式化されたストーリースクリプトとカメラスクリプトが入力として与えられたら、いくつかのキャラクターアニメーションとカメラムーブメント提案を生成する。
候補から高品質なダイナミックなストーリーボードをピックアップするために,プロのマニュアル作成データから学習したショット品質基準に基づいて,ショットランキング判別器を装備する。
論文 参考訳(メタデータ) (2023-01-30T06:37:35Z) - 3D scene reconstruction from monocular spherical video with motion
parallax [0.6091702876917281]
動きパララックスを持つ1つの球面ビデオから隣接する2つのフレームを用いて、ほぼ全球面(360度)の深度情報をキャプチャする手法について述べる。
実験では、深度情報は球全体の97%を固体の角度で取得した。
本手法は,1)フィルムの事前化,位置探索・計画,2)リアルシーン/コンピュータグラフィックス合成,3)モーションキャプチャなど,周囲環境の3次元構造検索に応用できる。
論文 参考訳(メタデータ) (2022-06-14T00:35:51Z) - Automatic Non-Linear Video Editing Transfer [7.659780589300858]
本稿では,ソースビデオ中の編集スタイルを抽出し,一致した映像に編集を適用する自動手法を提案する。
コンピュータビジョンに基づく手法では,各入力映像セグメントのフレーミング,コンテンツタイプ,再生速度,照明について検討する。
論文 参考訳(メタデータ) (2021-05-14T17:52:25Z) - Sampling Based Scene-Space Video Processing [89.49726406622842]
ビデオ処理のための新しいサンプリングベースのフレームワークを提案する。
奥行きのミスやカメラのポーズ推定がある場合、高品質なシーン空間ビデオ効果を可能にする。
カジュアルにキャプチャーされた、手持ちの、動く、圧縮された、モノラルなビデオの結果を提示する。
論文 参考訳(メタデータ) (2021-02-05T05:55:04Z) - Deep Multimodality Learning for UAV Video Aesthetic Quality Assessment [22.277636020333198]
UAVビデオの審美的品質評価のための深層マルチモーダリティ学習法を提案する。
この新しいマルチストリームフレームワークには,新たなモーションストリームネットワークが提案されている。
本稿では,UAVビデオグラデーション,プロのセグメント検出,審美に基づくUAVパス計画の3つの応用例を示す。
論文 参考訳(メタデータ) (2020-11-04T15:37:49Z) - A Unified Framework for Shot Type Classification Based on Subject
Centric Lens [89.26211834443558]
主観的誘導ネットワーク(SGNet)を用いたショット型認識のための学習フレームワークを提案する。
SGNetは、ショットの主題と背景を2つのストリームに分け、それぞれがスケールとムーブメントタイプの分類のための別々のガイダンスマップとして機能する。
大規模なデータセットであるMovieShotsを構築し、7Kフィルムトレーラーから46K枚の写真と、それらのスケールとムーブメントのアノテーションを含む。
論文 参考訳(メタデータ) (2020-08-08T15:49:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。