論文の概要: Hunyuan-GameCraft: High-dynamic Interactive Game Video Generation with Hybrid History Condition
- arxiv url: http://arxiv.org/abs/2506.17201v1
- Date: Fri, 20 Jun 2025 17:50:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.579215
- Title: Hunyuan-GameCraft: High-dynamic Interactive Game Video Generation with Hybrid History Condition
- Title(参考訳): Hunyuan-GameCraft:ハイブリッド履歴条件付きハイダイナミックインタラクティブゲーム生成
- Authors: Jiaqi Li, Junshu Tang, Zhiyong Xu, Longhuang Wu, Yuan Zhou, Shuai Shao, Tianbao Yu, Zhiguo Cao, Qinglin Lu,
- Abstract要約: Hunyuan-GameCraftは、ゲーム環境におけるハイダイナミックなインタラクティブなビデオ生成のための新しいフレームワークである。
アクション制御をきめ細かいものにするため,標準キーボードとマウス入力を共有カメラ表現空間に統合する。
本稿では,ゲームシーン情報を保存しながら,映像シーケンスを自動回帰的に拡張するハイブリッド履歴条件学習手法を提案する。
- 参考スコア(独自算出の注目度): 18.789597877579986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in diffusion-based and controllable video generation have enabled high-quality and temporally coherent video synthesis, laying the groundwork for immersive interactive gaming experiences. However, current methods face limitations in dynamics, generality, long-term consistency, and efficiency, which limit the ability to create various gameplay videos. To address these gaps, we introduce Hunyuan-GameCraft, a novel framework for high-dynamic interactive video generation in game environments. To achieve fine-grained action control, we unify standard keyboard and mouse inputs into a shared camera representation space, facilitating smooth interpolation between various camera and movement operations. Then we propose a hybrid history-conditioned training strategy that extends video sequences autoregressively while preserving game scene information. Additionally, to enhance inference efficiency and playability, we achieve model distillation to reduce computational overhead while maintaining consistency across long temporal sequences, making it suitable for real-time deployment in complex interactive environments. The model is trained on a large-scale dataset comprising over one million gameplay recordings across over 100 AAA games, ensuring broad coverage and diversity, then fine-tuned on a carefully annotated synthetic dataset to enhance precision and control. The curated game scene data significantly improves the visual fidelity, realism and action controllability. Extensive experiments demonstrate that Hunyuan-GameCraft significantly outperforms existing models, advancing the realism and playability of interactive game video generation.
- Abstract(参考訳): 拡散型および制御可能なビデオ生成の最近の進歩により、高品質で時間的に整合したビデオ合成が可能となり、没入型インタラクティブゲーム体験の基礎を築いた。
しかし、現在の手法では、ダイナミックス、汎用性、長期的な一貫性、効率性に制限があり、様々なゲームプレイビデオを作成する能力が制限されている。
これらのギャップに対処するために,ゲーム環境におけるハイダイナミックなインタラクティブビデオ生成のための新しいフレームワークであるHunyuan-GameCraftを紹介した。
各種カメラの動作操作と動作操作のスムーズな補間を容易にするために,従来のキーボードとマウスの入力を共有カメラ表現空間に統合する。
そこで我々は,ゲームシーン情報を保存しながら,映像シーケンスを自動回帰的に拡張するハイブリッド履歴条件学習戦略を提案する。
さらに, 予測効率とプレイ性を向上させるため, 複雑な対話環境におけるリアルタイム展開に適した長周期の整合性を保ちながら, 計算オーバーヘッドを低減するため, モデル蒸留を実現する。
このモデルは、100以上のAAAゲームにまたがる100万以上のゲームプレイ記録からなる大規模なデータセットでトレーニングされ、広範囲のカバレッジと多様性を確保し、慎重に注釈付けされた合成データセットで微調整され、精度と制御が向上する。
キュレートされたゲームシーンデータは、視覚的忠実度、リアリズム及びアクション制御性を大幅に改善する。
広汎な実験により,Hunyuan-GameCraftは既存のモデルよりも大幅に優れており,インタラクティブなゲームビデオ生成の現実性と遊びやすさが向上している。
関連論文リスト
- PlayerOne: Egocentric World Simulator [73.88786358213694]
PlayerOneは、最初のエゴセントリックなリアルワールドシミュレータである。
それは、エゴセントリックなビデオを生成し、エゴセントリックなカメラで捉えたユーザーの実際のシーンの人間の動きと厳密に一致している。
論文 参考訳(メタデータ) (2025-06-11T17:59:53Z) - GameFactory: Creating New Games with Generative Interactive Videos [32.98135338530966]
生成ビデオは、新しいコンテンツを自律的に作成することによって、ゲーム開発に革命をもたらす可能性がある。
本稿では,アクション制御型シーン汎用ゲーム生成フレームワークであるGameFactoryを紹介する。
実験により,GameFactoryはオープンドメインアクション制御可能なゲームビデオを効果的に生成することを示した。
論文 参考訳(メタデータ) (2025-01-14T18:57:21Z) - InterDyn: Controllable Interactive Dynamics with Video Diffusion Models [50.38647583839384]
我々は、初期フレームと駆動対象またはアクターの動作を符号化する制御信号が与えられたインタラクティブな動画像を生成するフレームワークであるInterDynを提案する。
我々の重要な洞察は、大規模なビデオ生成モデルは、大規模ビデオデータからインタラクティブなダイナミクスを学習し、ニューラルと暗黙の物理シミュレーターの両方として機能できるということです。
論文 参考訳(メタデータ) (2024-12-16T13:57:02Z) - GameGen-X: Interactive Open-world Game Video Generation [10.001128258269675]
我々は,オープンワールドゲームビデオの生成とインタラクティブ制御に特化して設計された,最初の拡散トランスフォーマーモデルであるGameGen-Xを紹介する。
革新的なキャラクター、動的環境、複雑なアクション、多様なイベントなど、一連のゲームエンジン機能をシミュレートする。
インタラクティブな制御性を提供し、現在のクリップに基づいたコンテンツの予測と将来的な変更を可能にし、ゲームプレイシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-11-01T17:59:17Z) - MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence [62.72540590546812]
MovieDreamerは、自己回帰モデルの強みと拡散ベースのレンダリングを統合する、新しい階層的なフレームワークである。
様々な映画ジャンルにまたがって実験を行い、そのアプローチが優れた視覚的・物語的品質を実現することを示す。
論文 参考訳(メタデータ) (2024-07-23T17:17:05Z) - Video2Game: Real-time, Interactive, Realistic and Browser-Compatible Environment from a Single Video [23.484070818399]
Video2Gameは、現実世界のシーンのビデオを自動的にリアルでインタラクティブなゲーム環境に変換する新しいアプローチである。
リアルタイムに高リアルなレンダリングを作成できるだけでなく、インタラクティブなゲームも構築できることが示されています。
論文 参考訳(メタデータ) (2024-04-15T14:32:32Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。