論文の概要: Cine-AI: Generating Video Game Cutscenes in the Style of Human Directors
- arxiv url: http://arxiv.org/abs/2208.05701v1
- Date: Thu, 11 Aug 2022 08:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:34:45.729158
- Title: Cine-AI: Generating Video Game Cutscenes in the Style of Human Directors
- Title(参考訳): Cine-AI:人間ディレクターのスタイルでゲームカットシーンを生成する
- Authors: Inan Evin, Perttu H\"am\"al\"ainen, Christian Guckelsberger
- Abstract要約: そこで,我々はCine-AIについて紹介する。Cine-AIはオープンソースのプロシージャ撮影ツールセットで,卓越した人間監督のスタイルでゲーム内カットシーンを生成できる。
Cine-AIは、設計時操作のための新しいタイムラインとストーリーボードインターフェース、ランタイム自動化を備えている。
我々は、Cine-AIが、平均的なユーザビリティを提供しながら、ターゲットディレクターと正しく関連付けられたカットシーンを生成することを実証した。
- 参考スコア(独自算出の注目度): 1.074267520911262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cutscenes form an integral part of many video games, but their creation is
costly, time-consuming, and requires skills that many game developers lack.
While AI has been leveraged to semi-automate cutscene production, the results
typically lack the internal consistency and uniformity in style that is
characteristic of professional human directors. We overcome this shortcoming
with Cine-AI, an open-source procedural cinematography toolset capable of
generating in-game cutscenes in the style of eminent human directors.
Implemented in the popular game engine Unity, Cine-AI features a novel timeline
and storyboard interface for design-time manipulation, combined with runtime
cinematography automation. Via two user studies, each employing quantitative
and qualitative measures, we demonstrate that Cine-AI generates cutscenes that
people correctly associate with a target director, while providing
above-average usability. Our director imitation dataset is publicly available,
and can be extended by users and film enthusiasts.
- Abstract(参考訳): カットシーンは多くのビデオゲームに不可欠な部分を形成するが、制作にはコストがかかり、時間もかかり、多くのゲーム開発者が欠落するスキルを必要とする。
AIは半自動カットステン生産に活用されているが、その結果は通常、プロの人間ディレクターに特徴的なスタイルにおける内部の一貫性と統一性を欠いている。
この欠点を克服するために、cine-aiはオープンソースのプロシーデュラル撮影ツールセットで、人間監督のスタイルでゲーム内カットシーンを生成できる。
人気ゲームエンジンのUnityで実装されたCine-AIは、ランタイムシネマトグラフィー自動化と合わせて、デザイン・タイム操作のための新しいタイムラインとストーリーボードインターフェースを備えている。
Cine-AIは2つのユーザスタディにおいて,それぞれ定量的,定性的な尺度を用いて,目標監督と正しく関連付けられたカットシーンを生成しながら,平均的ユーザビリティを提供することを示した。
当社のディレクター模倣データセットは公開されており、ユーザや映画愛好家によって拡張可能です。
関連論文リスト
- Large-Scale Actionless Video Pre-Training via Discrete Diffusion for
Efficient Policy Learning [73.69573252516761]
本稿では,人間のビデオにおける生成前訓練とアクションラベル付きロボットビデオのポリシー微調整を組み合わせた新しいフレームワークを提案する。
提案手法は, 従来の最先端手法と比較して, 高忠実度な今後の計画ビデオを生成し, 細調整されたポリシーを強化する。
論文 参考訳(メタデータ) (2024-02-22T09:48:47Z) - Revisit Human-Scene Interaction via Space Occupancy [59.732387568308816]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Dynamic Storyboard Generation in an Engine-based Virtual Environment for
Video Production [92.14891282042764]
VDS(Virtual Dynamic Storyboard)を導入し,仮想環境でのストーリーボード撮影を可能にする。
形式化されたストーリースクリプトとカメラスクリプトが入力として与えられたら、いくつかのキャラクターアニメーションとカメラムーブメント提案を生成する。
候補から高品質なダイナミックなストーリーボードをピックアップするために,プロのマニュアル作成データから学習したショット品質基準に基づいて,ショットランキング判別器を装備する。
論文 参考訳(メタデータ) (2023-01-30T06:37:35Z) - Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation [0.0]
強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
CARMI: aを提示します。
入力として相対測度を持つエージェント。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
論文 参考訳(メタデータ) (2022-11-29T14:17:20Z) - HUMANISE: Language-conditioned Human Motion Generation in 3D Scenes [54.61610144668777]
本稿では,3次元シーンで3次元人間の動きを生成できる新しいシーン・アンド・ランゲージ・コンディショニング・ジェネレーション・モデルを提案する。
実験により,我々のモデルは3次元シーンにおいて多様で意味的に一貫した人間の動きを生成できることを示した。
論文 参考訳(メタデータ) (2022-10-18T10:14:11Z) - Scene Editing as Teleoperation: A Case Study in 6DoF Kit Assembly [18.563562557565483]
遠隔操作によるシーン編集(SEaT)の枠組みを提案する。
ロボットを制御する代わりに、ユーザーはタスクのゴールを指定することに集中する。
ユーザは、ロボットハードウェアの専門知識を必要とせずに遠隔操作を行うことができる。
論文 参考訳(メタデータ) (2021-10-09T04:22:21Z) - Benchmarking End-to-End Behavioural Cloning on Video Games [5.863352129133669]
我々は,2010年以降の6ゲームを含む12のビデオゲームにおける行動クローンの一般適用性について検討した。
以上の結果から,これらのエージェントは生演奏では人間と一致しないが,基本力学やルールを学習できることがわかった。
また、データの質や、人間からのデータの記録が、人間の反射によって、状態-作用ミスマッチの対象になっていることを実証する。
論文 参考訳(メタデータ) (2020-04-02T13:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。