論文の概要: Order Matters: 3D Shape Generation from Sequential VR Sketches
- arxiv url: http://arxiv.org/abs/2512.04761v1
- Date: Thu, 04 Dec 2025 12:53:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.17088
- Title: Order Matters: 3D Shape Generation from Sequential VR Sketches
- Title(参考訳): VRケッチから3D形状を創り出す「オーダー」
- Authors: Yizi Chen, Sidi Wu, Tianyi Xiao, Nina Wiedemann, Loic Landrieu,
- Abstract要約: シーケンシャルなVRスケッチから3次元形状を生成するための,最初のフレームワークおよびマルチカテゴリデータセットであるVR2Shapeを紹介する。
i)任意の形状から連続的なVRスケッチを生成する自動パイプライン,(ii)20k以上の合成スケッチと900以上の手描きスケッチのペアのデータセット,(iii)拡散ベースの3Dジェネレータと組み合わせたオーダー対応スケッチエンコーダである。
- 参考スコア(独自算出の注目度): 14.101692464280097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: VR sketching lets users explore and iterate on ideas directly in 3D, offering a faster and more intuitive alternative to conventional CAD tools. However, existing sketch-to-shape models ignore the temporal ordering of strokes, discarding crucial cues about structure and design intent. We introduce VRSketch2Shape, the first framework and multi-category dataset for generating 3D shapes from sequential VR sketches. Our contributions are threefold: (i) an automated pipeline that generates sequential VR sketches from arbitrary shapes, (ii) a dataset of over 20k synthetic and 900 hand-drawn sketch-shape pairs across four categories, and (iii) an order-aware sketch encoder coupled with a diffusion-based 3D generator. Our approach yields higher geometric fidelity than prior work, generalizes effectively from synthetic to real sketches with minimal supervision, and performs well even on partial sketches. All data and models will be released open-source at https://chenyizi086.github.io/VRSketch2Shape_website.
- Abstract(参考訳): VRのスケッチは、ユーザーが3Dで直接アイデアを探索し、反復し、従来のCADツールよりも高速で直感的な代替手段を提供する。
しかし、既存のスケッチ・トゥ・シェイプモデルは、ストロークの時間的順序を無視し、構造と設計意図に関する重要な手がかりを捨てている。
逐次VRスケッチから3次元形状を生成するための,最初のフレームワークおよびマルチカテゴリデータセットであるVRSketch2Shapeを紹介する。
私たちの貢献は3倍です。
(i)任意の形状から連続したVRスケッチを生成する自動パイプライン
(二)四つのカテゴリーにまたがる20k以上の合成図面と900個の手描き図面の組のデータセット
(iii)拡散型3Dジェネレータを組み込んだ秩序対応スケッチエンコーダ。
提案手法は, 従来よりも幾何忠実度が高く, 最小限の監督で合成スケッチから実スケッチを効果的に一般化し, 部分スケッチにおいても良好に機能する。
すべてのデータとモデルはhttps://chenyizi086.github.io/VRSketch2Shape_websiteでオープンソース化される。
関連論文リスト
- 4-Doodle: Text to 3D Sketches that Move! [60.89021458068987]
4-Doodleは、テキストから動的3Dスケッチを生成するための、最初のトレーニング不要のフレームワークである。
提案手法は時間的にリアルかつ構造的に安定な3次元スケッチアニメーションを生成し,忠実度と可制御性の両方において既存のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-10-29T09:33:29Z) - S3D: Sketch-Driven 3D Model Generation [26.557326163693215]
S3Dは単純な手描きスケッチを詳細な3Dモデルに変換するフレームワークである。
提案手法では,U-Netベースのエンコーダデコーダアーキテクチャを用いてスケッチを顔分割マスクに変換する。
論文 参考訳(メタデータ) (2025-05-07T07:34:37Z) - 3D VR Sketch Guided 3D Shape Prototyping and Exploration [108.6809158245037]
本稿では,3次元VRスケッチを条件として行う3次元形状生成ネットワークを提案する。
スケッチは初心者がアートトレーニングなしで作成していると仮定する。
本手法は,オリジナルスケッチの構造に整合した複数の3次元形状を生成する。
論文 参考訳(メタデータ) (2023-06-19T10:27:24Z) - Fine-Grained VR Sketching: Dataset and Insights [140.0579567561475]
1,497個のVRスケッチと大きな形状の椅子カテゴリーの3次元形状ペアの最初の詳細なデータセットを提示する。
我々のデータセットは、きめ細かいデータ分析に関するスケッチコミュニティの最近のトレンドをサポートする。
論文 参考訳(メタデータ) (2022-09-20T21:30:54Z) - SingleSketch2Mesh : Generating 3D Mesh model from Sketch [1.6973426830397942]
スケッチから3Dモデルを生成する現在の方法は、手動またはタイトに3Dモデリングプラットフォームと結合されている。
我々は手描きスケッチから3Dモデルを生成するための新しいAIベースのアンサンブルアプローチであるSingleSketch2Meshを提案する。
論文 参考訳(メタデータ) (2022-03-07T06:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。