論文の概要: OpenKinoAI: An Open Source Framework for Intelligent Cinematography and
Editing of Live Performances
- arxiv url: http://arxiv.org/abs/2011.05203v1
- Date: Fri, 30 Oct 2020 14:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 17:19:01.595822
- Title: OpenKinoAI: An Open Source Framework for Intelligent Cinematography and
Editing of Live Performances
- Title(参考訳): OpenKinoAI: インテリジェントシネマトグラフィーとライブパフォーマンスの編集のためのオープンソースフレームワーク
- Authors: R\'emi Ronfard and R\'emi Colin de Verdi\`ere
- Abstract要約: OpenKinoAIは、超高解像度ビデオのポストプロダクションのためのオープンソースのフレームワークである。
リモートWebサーバでライブパフォーマンスの生のビデオ映像をアップロードするツールが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: OpenKinoAI is an open source framework for post-production of ultra high
definition video which makes it possible to emulate professional multiclip
editing techniques for the case of single camera recordings. OpenKinoAI
includes tools for uploading raw video footage of live performances on a remote
web server, detecting, tracking and recognizing the performers in the original
material, reframing the raw video into a large choice of cinematographic
rushes, editing the rushes into movies, and annotating rushes and movies for
documentation purposes. OpenKinoAI is made available to promote research in
multiclip video editing of ultra high definition video, and to allow performing
artists and companies to use this research for archiving, documenting and
sharing their work online in an innovative fashion.
- Abstract(参考訳): openkinoaiは、超高精細ビデオのポストプロダクションのためのオープンソースフレームワークであり、単一のカメラ記録の場合、プロのマルチクリップ編集技術をエミュレートすることができる。
OpenKinoAIは、リモートWebサーバにライブパフォーマンスの生のビデオ映像をアップロードし、元の素材のパフォーマーを検出し、追跡し、認識し、生のビデオを多くの撮影用ラッシュに再フレーミングし、映画に急流を編集し、文書化のためにラッシュや映画を注釈付けするツールを含んでいる。
OpenKinoAIは、超高解像度ビデオのマルチクリップビデオ編集の研究を促進し、アーティストや企業がこの研究を革新的な方法でオンラインでのアーカイブ、文書化、共有に利用できるようにする。
関連論文リスト
- I2VEdit: First-Frame-Guided Video Editing via Image-to-Video Diffusion Models [18.36472998650704]
本稿では,1フレームからビデオ全体への編集を事前学習した画像対ビデオモデルを用いてプロパガンダすることで,画像編集ツールをビデオに適用可能にする,新しい汎用的ソリューションを提案する。
I2VEditと呼ばれる本手法は,編集範囲に応じて映像の視覚的・運動的整合性を適応的に保持する。
論文 参考訳(メタデータ) (2024-05-26T11:47:40Z) - EffiVED:Efficient Video Editing via Text-instruction Diffusion Models [9.287394166165424]
EffiVEDは、命令誘導ビデオ編集をサポートする効率的な拡散ベースモデルである。
我々は、膨大な画像編集データセットとオープンワールドビデオを、EffiVEDをトレーニングするための高品質なデータセットに変換する。
論文 参考訳(メタデータ) (2024-03-18T08:42:08Z) - UniEdit: A Unified Tuning-Free Framework for Video Motion and Appearance Editing [28.140945021777878]
ビデオモーションと外観編集の両方をサポートする、チューニング不要のフレームワークであるUniEditを提示する。
映像コンテンツを保存しながら動きの編集を実現するため,補助的な動き参照と再構成のブランチを導入する。
得られた特徴は、時間的および空間的自己注意層を介して、主編集経路に注入される。
論文 参考訳(メタデータ) (2024-02-20T17:52:12Z) - EasyVolcap: Accelerating Neural Volumetric Video Research [69.59671164891725]
ボリュームビデオは、芸術的パフォーマンス、スポーツイベント、リモート会話などの動的イベントをデジタル的に記録する技術である。
EasyVolcapはPythonとPytorchのライブラリで、マルチビューデータ処理、4Dシーン再構成、効率的なダイナミックボリュームビデオレンダリングのプロセスを統一する。
論文 参考訳(メタデータ) (2023-12-11T17:59:46Z) - Make-A-Protagonist: Generic Video Editing with An Ensemble of Experts [116.05656635044357]
我々はMake-A-Protagonistと呼ばれる一般的なビデオ編集フレームワークを提案する。
具体的には、複数の専門家を利用してソース映像を解析し、視覚的・テキスト的手がかりをターゲットとし、視覚的・テキスト的映像生成モデルを提案する。
その結果,Make-A-Protagonistの多種多様な編集能力を実証した。
論文 参考訳(メタデータ) (2023-05-15T17:59:03Z) - Video-P2P: Video Editing with Cross-attention Control [68.64804243427756]
Video-P2Pは、クロスアテンション制御による現実世界のビデオ編集のための新しいフレームワークである。
Video-P2Pは、オリジナルのポーズやシーンを最適に保存しながら、新しいキャラクターを生成する現実世界のビデオでうまく機能する。
論文 参考訳(メタデータ) (2023-03-08T17:53:49Z) - Dynamic Storyboard Generation in an Engine-based Virtual Environment for
Video Production [92.14891282042764]
VDS(Virtual Dynamic Storyboard)を導入し,仮想環境でのストーリーボード撮影を可能にする。
形式化されたストーリースクリプトとカメラスクリプトが入力として与えられたら、いくつかのキャラクターアニメーションとカメラムーブメント提案を生成する。
候補から高品質なダイナミックなストーリーボードをピックアップするために,プロのマニュアル作成データから学習したショット品質基準に基づいて,ショットランキング判別器を装備する。
論文 参考訳(メタデータ) (2023-01-30T06:37:35Z) - The Anatomy of Video Editing: A Dataset and Benchmark Suite for
AI-Assisted Video Editing [90.59584961661345]
この研究は、AIによるビデオ編集の研究を促進するために、データセットとベンチマークであるビデオ編集の解剖学を導入している。
本ベンチマークスイートでは,映像の自動撮影やビデオ組み立て支援など,視覚効果以外の映像編集作業に重点を置いている。
これらの前線の研究を可能にするために、196176年の映画シーンから採取した150万枚以上のタグと、撮影技術に関する概念を注釈付けした。
論文 参考訳(メタデータ) (2022-07-20T10:53:48Z) - Transcript to Video: Efficient Clip Sequencing from Texts [65.87890762420922]
Transcript-to-Video - テキストを入力として使用する弱教師付きフレームワークで、広範なショットコレクションからビデオシーケンスを自動的に生成する。
具体的には、視覚言語表現とモデルショットシークエンシングスタイルを学習するためのコンテンツ検索モジュールとテンポラルコヒーレントモジュールを提案する。
高速な推論のために,リアルタイムビデオクリップシークエンシングのための効率的な検索手法を提案する。
論文 参考訳(メタデータ) (2021-07-25T17:24:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。