論文の概要: Cine-AI: Generating Video Game Cutscenes in the Style of Human Directors
- arxiv url: http://arxiv.org/abs/2208.05701v1
- Date: Thu, 11 Aug 2022 08:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:34:45.729158
- Title: Cine-AI: Generating Video Game Cutscenes in the Style of Human Directors
- Title(参考訳): Cine-AI:人間ディレクターのスタイルでゲームカットシーンを生成する
- Authors: Inan Evin, Perttu H\"am\"al\"ainen, Christian Guckelsberger
- Abstract要約: そこで,我々はCine-AIについて紹介する。Cine-AIはオープンソースのプロシージャ撮影ツールセットで,卓越した人間監督のスタイルでゲーム内カットシーンを生成できる。
Cine-AIは、設計時操作のための新しいタイムラインとストーリーボードインターフェース、ランタイム自動化を備えている。
我々は、Cine-AIが、平均的なユーザビリティを提供しながら、ターゲットディレクターと正しく関連付けられたカットシーンを生成することを実証した。
- 参考スコア(独自算出の注目度): 1.074267520911262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cutscenes form an integral part of many video games, but their creation is
costly, time-consuming, and requires skills that many game developers lack.
While AI has been leveraged to semi-automate cutscene production, the results
typically lack the internal consistency and uniformity in style that is
characteristic of professional human directors. We overcome this shortcoming
with Cine-AI, an open-source procedural cinematography toolset capable of
generating in-game cutscenes in the style of eminent human directors.
Implemented in the popular game engine Unity, Cine-AI features a novel timeline
and storyboard interface for design-time manipulation, combined with runtime
cinematography automation. Via two user studies, each employing quantitative
and qualitative measures, we demonstrate that Cine-AI generates cutscenes that
people correctly associate with a target director, while providing
above-average usability. Our director imitation dataset is publicly available,
and can be extended by users and film enthusiasts.
- Abstract(参考訳): カットシーンは多くのビデオゲームに不可欠な部分を形成するが、制作にはコストがかかり、時間もかかり、多くのゲーム開発者が欠落するスキルを必要とする。
AIは半自動カットステン生産に活用されているが、その結果は通常、プロの人間ディレクターに特徴的なスタイルにおける内部の一貫性と統一性を欠いている。
この欠点を克服するために、cine-aiはオープンソースのプロシーデュラル撮影ツールセットで、人間監督のスタイルでゲーム内カットシーンを生成できる。
人気ゲームエンジンのUnityで実装されたCine-AIは、ランタイムシネマトグラフィー自動化と合わせて、デザイン・タイム操作のための新しいタイムラインとストーリーボードインターフェースを備えている。
Cine-AIは2つのユーザスタディにおいて,それぞれ定量的,定性的な尺度を用いて,目標監督と正しく関連付けられたカットシーンを生成しながら,平均的ユーザビリティを提供することを示した。
当社のディレクター模倣データセットは公開されており、ユーザや映画愛好家によって拡張可能です。
関連論文リスト
- StoryAgent: Customized Storytelling Video Generation via Multi-Agent Collaboration [88.94832383850533]
CSVG(Customized Storytelling Video Generation)のためのマルチエージェントフレームワークを提案する。
StoryAgentはCSVGを特殊エージェントに割り当てられた個別のサブタスクに分解し、プロの制作プロセスを反映する。
具体的には、撮影時間内整合性を高めるために、カスタマイズされたイメージ・ツー・ビデオ(I2V)手法であるLoRA-BEを導入する。
コントリビューションには、ビデオ生成タスクのための汎用フレームワークであるStoryAgentの導入や、プロタゴニストの一貫性を維持するための新しい技術が含まれている。
論文 参考訳(メタデータ) (2024-11-07T18:00:33Z) - DreamCinema: Cinematic Transfer with Free Camera and 3D Character [11.979669977372707]
本稿では,生成AIを映画製作パラダイムに進化させる新しい映画転送フレームワークであるDreamCinemaを提案する。
具体的には、まず、撮影要素(例えば、人間とカメラのポーズ)を抽出し、カメラの軌道を最適化する。
次に,人体構造を持つ3次元高品質キャラクタを効率よく作成するキャラクタ生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T17:59:44Z) - AutoDirector: Online Auto-scheduling Agents for Multi-sensory Composition [149.89952404881174]
AutoDirectorはインタラクティブな多感覚合成フレームワークで、ロングショット、特殊効果、音楽スコア、ダビング、リップシンクをサポートする。
自動スケジューリングにより多感フィルム製造の効率を向上し、ユーザニーズを満たすインタラクティブなタスクの修正と改善を支援する。
論文 参考訳(メタデータ) (2024-08-21T12:18:22Z) - Kubrick: Multimodal Agent Collaborations for Synthetic Video Generation [4.147294190096431]
視覚大言語モデル(VLM)エージェントの協調に基づく自動合成ビデオ生成パイプラインを提案する。
ビデオの自然言語記述が与えられた後、複数のVLMエージェントが生成パイプラインの様々なプロセスを自動指揮する。
生成したビデオは、ビデオ品質と命令追従性能の5つの指標において、商用ビデオ生成モデルよりも優れた品質を示す。
論文 参考訳(メタデータ) (2024-08-19T23:31:02Z) - Anim-Director: A Large Multimodal Model Powered Agent for Controllable Animation Video Generation [36.46957675498949]
Anim-Directorは、自律的なアニメーション作成エージェントである。
LMMと生成AIツールの高度な理解と推論能力を活用する。
プロセス全体は、手作業による介入なしに、特に自律的である。
論文 参考訳(メタデータ) (2024-08-19T08:27:31Z) - Sketch2Scene: Automatic Generation of Interactive 3D Game Scenes from User's Casual Sketches [50.51643519253066]
3Dコンテンツ生成は、ビデオゲーム、映画制作、バーチャルおよび拡張現実など、多くのコンピュータグラフィックスアプリケーションの中心にある。
本稿では,インタラクティブでプレイ可能な3Dゲームシーンを自動的に生成するための,新しいディープラーニングベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-08T16:27:37Z) - Revisit Human-Scene Interaction via Space Occupancy [55.67657438543008]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Dynamic Storyboard Generation in an Engine-based Virtual Environment for
Video Production [92.14891282042764]
VDS(Virtual Dynamic Storyboard)を導入し,仮想環境でのストーリーボード撮影を可能にする。
形式化されたストーリースクリプトとカメラスクリプトが入力として与えられたら、いくつかのキャラクターアニメーションとカメラムーブメント提案を生成する。
候補から高品質なダイナミックなストーリーボードをピックアップするために,プロのマニュアル作成データから学習したショット品質基準に基づいて,ショットランキング判別器を装備する。
論文 参考訳(メタデータ) (2023-01-30T06:37:35Z) - Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation [0.0]
強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
CARMI: aを提示します。
入力として相対測度を持つエージェント。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
論文 参考訳(メタデータ) (2022-11-29T14:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。