論文の概要: 3D Software Synthesis Guided by Constraint-Expressive Intermediate Representation
- arxiv url: http://arxiv.org/abs/2507.18625v1
- Date: Thu, 24 Jul 2025 17:58:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:44.23439
- Title: 3D Software Synthesis Guided by Constraint-Expressive Intermediate Representation
- Title(参考訳): 制約表現型中間表現による3次元ソフトウェア合成
- Authors: Shuqing Li, Anson Y. Lam, Yun Peng, Wenxuan Wang, Michael R. Lyu,
- Abstract要約: 本稿では,要求に敏感な3Dソフトウェア合成手法であるScenethesisを提案する。
Scenethesisは、ユーザ仕様と生成された3Dソフトウェアの間の形式的なトレーサビリティを維持している。
Scenethesisは、最先端の手法と比較して、BLIP-2視覚評価スコアが42.8%向上した。
- 参考スコア(独自算出の注目度): 50.70705695129453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphical user interface (UI) software has undergone a fundamental transformation from traditional two-dimensional (2D) desktop/web/mobile interfaces to spatial three-dimensional (3D) environments. While existing work has made remarkable success in automated 2D software generation, such as HTML/CSS and mobile app interface code synthesis, the generation of 3D software still remains under-explored. Current methods for 3D software generation usually generate the 3D environments as a whole and cannot modify or control specific elements in the software. Furthermore, these methods struggle to handle the complex spatial and semantic constraints inherent in the real world. To address the challenges, we present Scenethesis, a novel requirement-sensitive 3D software synthesis approach that maintains formal traceability between user specifications and generated 3D software. Scenethesis is built upon ScenethesisLang, a domain-specific language that serves as a granular constraint-aware intermediate representation (IR) to bridge natural language requirements and executable 3D software. It serves both as a comprehensive scene description language enabling fine-grained modification of 3D software elements and as a formal constraint-expressive specification language capable of expressing complex spatial constraints. By decomposing 3D software synthesis into stages operating on ScenethesisLang, Scenethesis enables independent verification, targeted modification, and systematic constraint satisfaction. Our evaluation demonstrates that Scenethesis accurately captures over 80% of user requirements and satisfies more than 90% of hard constraints while handling over 100 constraints simultaneously. Furthermore, Scenethesis achieves a 42.8% improvement in BLIP-2 visual evaluation scores compared to the state-of-the-art method.
- Abstract(参考訳): グラフィカルユーザインタフェース(UI)ソフトウェアは、従来の2次元(2次元)デスクトップ/ウェブ/モバイルインターフェースから空間的3次元(3次元)環境への根本的な変換が行われた。
既存の作業は、HTML/CSSやモバイルアプリインターフェースのコード合成など、自動化された2Dソフトウェア生成において顕著な成功を収めてきたが、3Dソフトウェアの生成はいまだに未調査のままである。
3Dソフトウェア生成の現在の方法は、通常3D環境全体を生成し、ソフトウェア内の特定の要素を変更したり制御したりすることはできない。
さらに、これらの手法は現実世界に固有の複雑な空間的制約や意味的制約を扱うのに苦労する。
この課題に対処するために,ユーザ仕様と生成された3Dソフトウェアの間の形式的トレーサビリティを維持する,要求に敏感な新しい3Dソフトウェア合成手法であるScenethesisを提案する。
ScenethesisLangはドメイン固有の言語で、自然言語の要求と実行可能な3Dソフトウェアをブリッジするための粒度の制約対応中間表現(IR)として機能する。
3Dソフトウェア要素のきめ細かい修正を可能にする包括的シーン記述言語や、複雑な空間的制約を表現できる形式的な制約表現仕様言語として機能する。
3Dソフトウェア合成をScenethesisLangで運用するステージに分解することで、Scenethesisは独立した検証、ターゲット修正、体系的な制約満足度を実現する。
評価の結果,Scenethesisはユーザの要求の80%以上を正確に把握し,同時に100以上の制約を処理しながら90%以上の制約を満たすことがわかった。
さらに、Scenethesisは、最先端の方法と比較して、BLIP-2視覚評価スコアが42.8%向上している。
関連論文リスト
- RoomCraft: Controllable and Complete 3D Indoor Scene Generation [51.19602078504066]
RoomCraftは、実際の画像、スケッチ、テキスト記述をコヒーレントな3D屋内シーンに変換するマルチステージパイプラインである。
このアプローチでは,シーン生成パイプラインと制約駆動最適化フレームワークを組み合わせる。
RoomCraftは、リアルでセマンティックなコヒーレントで視覚的に魅力的な部屋レイアウトを生成する上で、既存の方法よりもはるかに優れています。
論文 参考訳(メタデータ) (2025-06-27T15:03:17Z) - MIMO: Controllable Character Video Synthesis with Spatial Decomposed Modeling [21.1274747033854]
キャラクタビデオ合成は、ライフライクなシーン内でアニマタブルなキャラクターのリアルなビデオを作成することを目的としている。
Miloは、文字ビデオを制御可能な属性で合成できる新しいフレームワークである。
Miloは、任意のキャラクタへの高度なスケーラビリティ、新しい3Dモーションへの一般化、インタラクティブな現実世界のシーンへの適用性を実現している。
論文 参考訳(メタデータ) (2024-09-24T15:00:07Z) - iControl3D: An Interactive System for Controllable 3D Scene Generation [57.048647153684485]
iControl3Dは、ユーザがカスタマイズ可能な3Dシーンを正確なコントロールで生成およびレンダリングできるようにする、新しいインタラクティブシステムである。
我々は3Dメッシュを仲介プロキシとして利用し、個別の2D拡散生成画像を結合的で統一された3Dシーン表現に反復的にマージする。
私たちのニューラルレンダリングインターフェースは、ユーザが自分のシーンのラディアンスフィールドをオンラインで構築し、シーン全体をナビゲートすることを可能にする。
論文 参考訳(メタデータ) (2024-08-03T06:35:09Z) - Chat-Edit-3D: Interactive 3D Scene Editing via Text Prompts [76.73043724587679]
CE3Dと呼ばれる対話型3Dシーン編集手法を提案する。
Hash-Atlasは3Dシーンビューを表し、3Dシーンの編集を2Dアトラスイメージに転送する。
その結果、CE3Dは複数の視覚モデルを効果的に統合し、多様な視覚効果が得られることを示した。
論文 参考訳(メタデータ) (2024-07-09T13:24:42Z) - GALA3D: Towards Text-to-3D Complex Scene Generation via Layout-guided Generative Gaussian Splatting [52.150502668874495]
GALA3D, GALA3D, 生成3D GAussian, LAyout-guided control, for effective compositional text-to-3D generation。
GALA3Dは、最先端のシーンレベルの3Dコンテンツ生成と制御可能な編集のための、ユーザフレンドリーでエンドツーエンドのフレームワークである。
論文 参考訳(メタデータ) (2024-02-11T13:40:08Z) - 3D-SSGAN: Lifting 2D Semantics for 3D-Aware Compositional Portrait
Synthesis [11.457566989721078]
既存の3D対応のポートレート合成手法は、強い3D一貫性を維持しながら、印象的な高品質な画像を生成することができる。
3D-SSGANは3次元合成画像合成のための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-01-08T09:41:07Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。