論文の概要: Sketch2CADScript: 3D Scene Reconstruction from 2D Sketch using Visual
Transformer and Rhino Grasshopper
- arxiv url: http://arxiv.org/abs/2309.16850v1
- Date: Thu, 28 Sep 2023 21:02:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 16:17:06.271917
- Title: Sketch2CADScript: 3D Scene Reconstruction from 2D Sketch using Visual
Transformer and Rhino Grasshopper
- Title(参考訳): Sketch2CADScript: Visual Transformer と Rhino Grasshopper を用いた2次元スケッチからの3次元シーン再構成
- Authors: Hong-Bin Yang
- Abstract要約: これらの問題に対処する新しい3D再構成手法を提案する。
我々は、単一のワイヤフレーム画像から"シーン記述子"を予測するために、視覚変換器を訓練した。
予測パラメータでは、BlenderやGrasshopperといった3Dモデリングソフトウェアを使用して、3Dシーンを再構築することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing 3D model reconstruction methods typically produce outputs in the
form of voxels, point clouds, or meshes. However, each of these approaches has
its limitations and may not be suitable for every scenario. For instance, the
resulting model may exhibit a rough surface and distorted structure, making
manual editing and post-processing challenging for humans. In this paper, we
introduce a novel 3D reconstruction method designed to address these issues. We
trained a visual transformer to predict a "scene descriptor" from a single
wire-frame image. This descriptor encompasses crucial information, including
object types and parameters such as position, rotation, and size. With the
predicted parameters, a 3D scene can be reconstructed using 3D modeling
software like Blender or Rhino Grasshopper which provides a programmable
interface, resulting in finely and easily editable 3D models. To evaluate the
proposed model, we created two datasets: one featuring simple scenes and
another with complex scenes. The test results demonstrate the model's ability
to accurately reconstruct simple scenes but reveal its challenges with more
complex ones.
- Abstract(参考訳): 既存の3Dモデル再構成手法は通常、ボクセル、点雲、メッシュの形式で出力を生成する。
しかしながら、これらのアプローチには制限があり、すべてのシナリオに適さない可能性がある。
例えば、得られたモデルは粗い表面と歪んだ構造を示し、手作業による編集と後処理が人間にとって困難になる。
本稿では,これらの問題に対処する新しい3次元再構成手法を提案する。
1つのワイヤーフレーム画像から「シーン記述子」を予測するために視覚トランスフォーマーを訓練した。
このディスクリプタは、オブジェクトタイプや位置、回転、サイズといったパラメータを含む重要な情報を含んでいる。
予測パラメータにより、BlenderやRhino Grasshopperのような3Dモデリングソフトウェアを使って3Dシーンを再構築することができる。
提案モデルを評価するために,単純なシーンと複雑なシーンの2つのデータセットを作成した。
テスト結果は、モデルが単純なシーンを正確に再構築し、より複雑なシーンでその課題を明らかにする能力を示している。
関連論文リスト
- Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - Model2Scene: Learning 3D Scene Representation via Contrastive
Language-CAD Models Pre-training [105.3421541518582]
現在成功している3次元シーン認識法は、大規模アノテートされた点雲に依存している。
CAD(Computer-Aided Design)モデルと言語から自由な3Dシーン表現を学習する新しいパラダイムであるModel2Sceneを提案する。
Model2Sceneは、平均mAPが46.08%、ScanNetとS3DISのデータセットが55.49%という、ラベルなしの優れた3Dオブジェクトのサリエント検出をもたらす。
論文 参考訳(メタデータ) (2023-09-29T03:51:26Z) - Blocks2World: Controlling Realistic Scenes with Editable Primitives [5.541644538483947]
我々は3Dシーンのレンダリングと編集のための新しい方法であるBlocks2Worldを提案する。
本手法は,コンベックス分解を用いて,各シーンの様々な物体から3次元並列入力を抽出することから始める。
次のステージでは、2Dレンダリングされた凸プリミティブから画像を生成することを学ぶ条件付きモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-07T21:38:50Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - Structured 3D Features for Reconstructing Controllable Avatars [43.36074729431982]
パラメトリックな統計的メッシュ表面からサンプリングされた高密度な3次元点に画素整列画像特徴をプールする,新しい暗黙の3次元表現に基づくモデルであるStructured 3D Featuresを紹介する。
本研究では,S3Fモデルがモノクロ3D再構成やアルベド,シェーディング推定など,これまでの課題を超越していることを示す。
論文 参考訳(メタデータ) (2022-12-13T18:57:33Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。