論文の概要: Unbounded: A Generative Infinite Game of Character Life Simulation
- arxiv url: http://arxiv.org/abs/2410.18975v2
- Date: Wed, 30 Oct 2024 16:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:29:30.224651
- Title: Unbounded: A Generative Infinite Game of Character Life Simulation
- Title(参考訳): Unbounded: キャラクタライフシミュレーションの生成的無限ゲーム
- Authors: Jialu Li, Yuanzhen Li, Neal Wadhwa, Yael Pritch, David E. Jacobs, Michael Rubinstein, Mohit Bansal, Nataniel Ruiz,
- Abstract要約: 生成モデルを用いて,有限なハードコードシステムの境界を超越したゲームである生成無限ゲームの概念を導入する。
我々は、生成AIの最近の進歩を活用して、生成モデルに完全にカプセル化されたキャラクターライフシミュレーションゲームUnboundedを作成する。
- 参考スコア(独自算出の注目度): 68.37260000219479
- License:
- Abstract: We introduce the concept of a generative infinite game, a video game that transcends the traditional boundaries of finite, hard-coded systems by using generative models. Inspired by James P. Carse's distinction between finite and infinite games, we leverage recent advances in generative AI to create Unbounded: a game of character life simulation that is fully encapsulated in generative models. Specifically, Unbounded draws inspiration from sandbox life simulations and allows you to interact with your autonomous virtual character in a virtual world by feeding, playing with and guiding it - with open-ended mechanics generated by an LLM, some of which can be emergent. In order to develop Unbounded, we propose technical innovations in both the LLM and visual generation domains. Specifically, we present: (1) a specialized, distilled large language model (LLM) that dynamically generates game mechanics, narratives, and character interactions in real-time, and (2) a new dynamic regional image prompt Adapter (IP-Adapter) for vision models that ensures consistent yet flexible visual generation of a character across multiple environments. We evaluate our system through both qualitative and quantitative analysis, showing significant improvements in character life simulation, user instruction following, narrative coherence, and visual consistency for both characters and the environments compared to traditional related approaches.
- Abstract(参考訳): 生成モデルを用いて,有限なハードコードシステムの境界を超越したゲームである生成無限ゲームの概念を導入する。
James P. Carse氏の有限ゲームと無限ゲームの違いに触発されて、生成AIの最近の進歩を活用して、生成モデルに完全にカプセル化されたキャラクターライフシミュレーションゲームUnboundedを開発した。
具体的には、Unboundedはサンドボックスのライフシミュレーションからインスピレーションを得て、仮想世界で自律的な仮想キャラクタと対話することを可能にする。
本研究では,Unboundedを開発するために,LLMとビジュアルジェネレーションの両領域における技術革新を提案する。
具体的には,(1)ゲームメカニクス,物語,キャラクターのインタラクションをリアルタイムで動的に生成する特殊蒸留大型言語モデル(LLM),(2)複数の環境にまたがるキャラクタの一貫した視覚的生成を保証する視覚モデルのための動的地域画像プロンプトアダプタ(IP-Adapter)を提案する。
定性的・定量的な分析により,キャラクタ・ライフ・シミュレーション,ユーザ・インストラクション・フォロー,ナラティブ・コヒーレンス,視覚的一貫性の両面で,従来の手法と比較して有意な改善が見られた。
関連論文リスト
- StoryVerse: Towards Co-authoring Dynamic Plot with LLM-based Character Simulation via Narrative Planning [8.851718319632973]
大きな言語モデル(LLM)は仮想文字の振る舞いを駆動し、プロットは文字と環境間の相互作用から現れる。
著者の著作意図と LLM によるキャラクタシミュレーションの創発的行動とを仲介するプロット作成ワークフローを提案する。
このプロセスは「生きた物語」を作り、様々なゲーム世界の状態に動的に適応し、著者、キャラクターシミュレーション、プレイヤーが共同で物語を作る。
論文 参考訳(メタデータ) (2024-05-17T23:04:51Z) - Video2Game: Real-time, Interactive, Realistic and Browser-Compatible Environment from a Single Video [23.484070818399]
Video2Gameは、現実世界のシーンのビデオを自動的にリアルでインタラクティブなゲーム環境に変換する新しいアプローチである。
リアルタイムに高リアルなレンダリングを作成できるだけでなく、インタラクティブなゲームも構築できることが示されています。
論文 参考訳(メタデータ) (2024-04-15T14:32:32Z) - Digital Life Project: Autonomous 3D Characters with Social Intelligence [86.2845109451914]
Digital Life Projectは、言語をユニバーサルメディアとして活用し、自律的な3Dキャラクタを構築するためのフレームワークである。
私たちのフレームワークは、SocioMindとMoMat-MoGenの2つの主要コンポーネントで構成されています。
論文 参考訳(メタデータ) (2023-12-07T18:58:59Z) - Towards a Holodeck-style Simulation Game [40.044978986425676]
Infinitiaは生成画像と言語モデルを使用して、プレイヤーからの短い記述に基づいて設定とNPCの全ての側面を再構築する。
InfinitiaはサーバクライアントアーキテクチャでUnityエンジンに実装されている。
マルチプレイヤーのフレームワークを使って、人間がシミュレーションに参加して対話できるようにしている。
論文 参考訳(メタデータ) (2023-08-22T19:19:19Z) - Beyond Reality: The Pivotal Role of Generative AI in the Metaverse [98.1561456565877]
本稿では、生成型AI技術がMetaverseをどう形成しているかを包括的に調査する。
我々は、AI生成文字による会話インタフェースを強化しているChatGPTやGPT-3といったテキスト生成モデルの応用を探求する。
また、現実的な仮想オブジェクトを作成する上で、Point-EやLumimithmicのような3Dモデル生成技術の可能性についても検討する。
論文 参考訳(メタデータ) (2023-07-28T05:44:20Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。