論文の概要: "Stack It Up!": 3D Stable Structure Generation from 2D Hand-drawn Sketch
- arxiv url: http://arxiv.org/abs/2508.02093v1
- Date: Mon, 04 Aug 2025 06:04:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.197893
- Title: "Stack It Up!": 3D Stable Structure Generation from 2D Hand-drawn Sketch
- Title(参考訳): 「Stack It Up!」:2次元手描きスケッチからの立体安定構造生成
- Authors: Yiqing Xu, Linfeng Li, Cunjun Yu, David Hsu,
- Abstract要約: 非専門家が複雑な3D構造を指定できるシステムStackItUpを提案する。
安定かつ多レベルな3D構造を生成し、安定性と視覚的類似性の両方において全てのベースラインを上回っている。
- 参考スコア(独自算出の注目度): 23.653119941225743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imagine a child sketching the Eiffel Tower and asking a robot to bring it to life. Today's robot manipulation systems can't act on such sketches directly-they require precise 3D block poses as goals, which in turn demand structural analysis and expert tools like CAD. We present StackItUp, a system that enables non-experts to specify complex 3D structures using only 2D front-view hand-drawn sketches. StackItUp introduces an abstract relation graph to bridge the gap between rough sketches and accurate 3D block arrangements, capturing the symbolic geometric relations (e.g., left-of) and stability patterns (e.g., two-pillar-bridge) while discarding noisy metric details from sketches. It then grounds this graph to 3D poses using compositional diffusion models and iteratively updates it by predicting hidden internal and rear supports-critical for stability but absent from the sketch. Evaluated on sketches of iconic landmarks and modern house designs, StackItUp consistently produces stable, multilevel 3D structures and outperforms all baselines in both stability and visual resemblance.
- Abstract(参考訳): 子どもがエッフェル塔をスケッチして、ロボットにそれを生き返らせることを想像してみてほしい。
今日のロボット操作システムは、こうしたスケッチを直接処理することはできませんが、目標として正確な3Dブロックポーズが必要で、構造解析やCADのような専門家ツールが要求されます。
2次元手描きスケッチのみを用いて,非専門家が複雑な3D構造を指定できるシステムStackItUpを提案する。
StackItUpは、粗いスケッチと正確な3Dブロック配置のギャップを埋める抽象的な関係グラフを導入し、スケッチからノイズの多いメトリックの詳細を排除しながら、記号的幾何学的関係(例えば、左方)と安定性パターン(例えば、2ピラーブリッジ)をキャプチャする。
次に、このグラフを合成拡散モデルを用いて3Dポーズにグラウンドし、内部および後方のサポートが安定に欠如していることを予測して反復的に更新する。
StackItUpは、象徴的なランドマークやモダンなハウスデザインのスケッチに基づいて、安定的で多層的な3D構造を一貫して生成し、安定性と視覚的類似性の両方においてすべてのベースラインを上回ります。
関連論文リスト
- GroundUp: Rapid Sketch-Based 3D City Massing [8.0366666733521]
スケッチが一般的なツールであるアーリーステージの都市デザインに焦点を当てる。
私たちは、2Dスケッチと3Dモデルを簡単に切り替えることで、アーキテクトのアイデアの迅速な修正を支援することを目的としています。
論文 参考訳(メタデータ) (2024-07-17T16:59:29Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - 3Doodle: Compact Abstraction of Objects with 3D Strokes [30.87733869892925]
我々は3Doooleを提案し、記述的かつビュー一貫性のあるスケッチ画像を生成する。
提案手法は,3次元ストロークの集合が効率的に3次元構造情報を表現できるという考えに基づいている。
結果として得られる3Dストロークのスパースセットは、様々な物体の本質的な3D特性形状を含む抽象スケッチとして表現することができる。
論文 参考訳(メタデータ) (2024-02-06T04:25:07Z) - SketchBodyNet: A Sketch-Driven Multi-faceted Decoder Network for 3D
Human Reconstruction [18.443079472919635]
そこで本研究では,SketchBodyNetと呼ばれるスケッチ駆動型マルチ顔デコーダネットワークを提案する。
我々のネットワークは,フリーハンドスケッチから3次元メッシュを再構築する際の優れた性能を実現している。
論文 参考訳(メタデータ) (2023-10-10T12:38:34Z) - 3D VR Sketch Guided 3D Shape Prototyping and Exploration [108.6809158245037]
本稿では,3次元VRスケッチを条件として行う3次元形状生成ネットワークを提案する。
スケッチは初心者がアートトレーニングなしで作成していると仮定する。
本手法は,オリジナルスケッチの構造に整合した複数の3次元形状を生成する。
論文 参考訳(メタデータ) (2023-06-19T10:27:24Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - Structure-Aware 3D VR Sketch to 3D Shape Retrieval [113.20120789493217]
われわれは3DVRのスケッチに固有の不正確さによって引き起こされる課題に注目している。
我々は「適合ギャップ」によって引き起こされる適応利得値を持つ三重項損失を用いることを提案する。
観察からではなく、記憶から描かれた202個の3次元形状のための202個のVRスケッチのデータセットを紹介した。
論文 参考訳(メタデータ) (2022-09-19T14:29:26Z) - DifferSketching: How Differently Do People Sketch 3D Objects? [78.44544977215918]
3Dオブジェクトの描画方法を理解するために,複数のスケッチデータセットが提案されている。
これらのデータセットは、しばしば小さなスケールで、オブジェクトやカテゴリの小さなセットをカバーする。
本研究では,空間的特徴と時間的特性の両面から,収集したデータをスケッチレベル,ストロークレベル,ピクセルレベルという3つのレベルで解析する。
論文 参考訳(メタデータ) (2022-09-19T06:52:18Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches [65.96417928860039]
スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
論文 参考訳(メタデータ) (2021-04-01T14:10:59Z) - 3D Shape Reconstruction from Free-Hand Sketches [42.15888734492648]
歪みのない線図からの3次元再構成では大きな進歩があったが、フリーハンドスケッチから3次元形状を再構築する努力はほとんど行われていない。
インタラクティブデザインやVR/ARゲームといった3D関連アプリケーションにおけるスケッチのパワー向上を目指す。
フリーハンドスケッチ3D再構成の大きな課題は、トレーニングデータ不足とフリーハンドスケッチの多様性にある。
論文 参考訳(メタデータ) (2020-06-17T07:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。