論文の概要: High Dimensional Procedural Content Generation
- arxiv url: http://arxiv.org/abs/2602.18943v1
- Date: Sat, 21 Feb 2026 19:29:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.409536
- Title: High Dimensional Procedural Content Generation
- Title(参考訳): 高次元手続き型コンテンツ生成
- Authors: Kaijie Xu, Clark Verbrugge,
- Abstract要約: 非幾何学的次元を結合状態空間の第一級座標に扱うフレームワークである高次元PCGを紹介する。
本稿では,抽象骨格生成,制御接地,高次元検証,マルチメトリック評価の共通パイプラインを用いた3つの一般的な実践可能なアルゴリズムを提案する。
我々はHDPCGがPCGの一般的な表現へのシフトを促し、幾何学を超えたゲームプレイ関連次元を創出することを願っている。
- 参考スコア(独自算出の注目度): 3.2586114800974957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Procedural content generation (PCG) has made substantial progress in shaping static 2D/3D geometry, while most methods treat gameplay mechanics as auxiliary and optimize only over space. We argue that this limits controllability and expressivity, and formally introduce High-Dimensional PCG (HDPCG): a framework that elevates non-geometric gameplay dimensions to first-class coordinates of a joint state space. We instantiate HDPCG along two concrete directions. Direction-Space augments geometry with a discrete layer dimension and validates reachability in 4D (x,y,z,l), enabling unified treatment of 2.5D/3.5D mechanics such as gravity inversion and parallel-world switching. Direction-Time augments geometry with temporal dynamics via time-expanded graphs, capturing action semantics and conflict rules. For each direction, we present three general, practicable algorithms with a shared pipeline of abstract skeleton generation, controlled grounding, high-dimensional validation, and multi-metric evaluation. Large-scale experiments across diverse settings validate the integrity of our problem formulation and the effectiveness of our methods on playability, structure, style, robustness, and efficiency. Beyond quantitative results, Unity-based case studies recreate playable scenarios that accord with our metrics. We hope HDPCG encourages a shift in PCG toward general representations and the generation of gameplay-relevant dimensions beyond geometry, paving the way for controllable, verifiable, and extensible level generation.
- Abstract(参考訳): プロシージャコンテンツ生成(PCG)は静的な2D/3D幾何を形成する上で大きな進歩を遂げているが、ほとんどの手法はゲームプレイのメカニクスを補助的なものとして扱い、空間上でのみ最適化している。
これは制御性と表現性を制限し、非幾何学的なゲームプレイ次元を結合状態空間の第一級座標に高めるフレームワークである高次元PCG (High-dimensional PCG) を正式に導入する。
2つの具体的な方向に沿ってHDPCGをインスタンス化する。
方向空間は、離散層次元で幾何学を強化し、4D (x,y,z,l) の到達可能性を検証することで、重力反転や平行世界スイッチングのような2.5D/3.5Dメカニクスの統一的な処理を可能にする。
方向時間(Direction-Time)は、時間拡張グラフを通じて時間ダイナミクスを付加し、アクションセマンティクスと競合ルールをキャプチャする。
各方向には,抽象骨格生成の共有パイプライン,接地制御,高次元検証,多次元評価の3つの一般的な実践可能なアルゴリズムを提案する。
多様な環境における大規模実験は, 問題定式化の完全性, 遊びやすさ, 構造, スタイル, 頑健性, 効率性に対する手法の有効性を検証した。
定量的な結果以外にも、Unityベースのケーススタディでは、メトリクスに合わせて再生可能なシナリオを再現しています。
我々はHDPCGがPCGの一般的な表現へのシフトを促し、幾何学を超えたゲームプレイ関連次元の生成を促し、制御可能、検証可能、拡張可能なレベル生成の道を開くことを願っている。
関連論文リスト
- Scalable Adaptation of 3D Geometric Foundation Models via Weak Supervision from Internet Video [76.32954467706581]
本稿では,生のビデオストリームからGEometric foundationモデルのスケーラブル適応を行うフレームワークであるSAGEを提案する。
階層的なマイニングパイプラインを使用して、ビデオをトレーニングトラジェクトリやハイブリッド監視に変換します。
実験の結果、SAGEはゼロショットの一般化を著しく向上し、チェムファー距離を20-42%削減した。
論文 参考訳(メタデータ) (2026-02-08T09:53:21Z) - IGGT: Instance-Grounded Geometry Transformer for Semantic 3D Reconstruction [82.53307702809606]
人間は自然に3次元世界の幾何学的構造と意味的内容を中間次元として知覚する。
本稿では,空間再構成とインスタンスレベルの文脈理解の両面での知識を統合するために,IGGT (InstanceGrounded Geometry Transformer) を提案する。
論文 参考訳(メタデータ) (2025-10-26T14:57:44Z) - Shape Generation via Weight Space Learning [12.429026910048528]
大規模な3次元形状生成モデル内の部分多様体は、トポロジカルな特性や微細な部分の特徴を別々に調整できることを示す。
結果は3次元形状生成と特殊微調整のための新しいアプローチを解き放つための重み空間学習の可能性を強調した。
論文 参考訳(メタデータ) (2025-03-26T15:49:27Z) - Dragen3D: Multiview Geometry Consistent 3D Gaussian Generation with Drag-Based Control [2.5031284037888395]
Dragen3Dは、幾何学的に一貫した制御可能な3D生成を実現する新しいアプローチである。
Anchor-Gaussian Variational Autoencoder (Anchor-GS VAE)を導入し、点雲と1つのイメージをアンカー潜水器にエンコードし、これらの潜水器を3DGSにデコードする。
我々の知る限りでは、幾何学的に制御可能な3Dガウス生成と編集を初めて達成した人物である。
論文 参考訳(メタデータ) (2025-02-23T07:19:03Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。