論文の概要: 3D Reconstruction from Sketches
- arxiv url: http://arxiv.org/abs/2505.14621v1
- Date: Tue, 20 May 2025 17:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.632678
- Title: 3D Reconstruction from Sketches
- Title(参考訳): ケッチからの3次元再構成
- Authors: Abhimanyu Talwar, Julien Laasri,
- Abstract要約: 複数のスケッチから3Dシーンを再構成する問題を考察する。
本稿では,(1)対応点を用いて複数のスケッチを縫合するパイプライン,(2)CycleGANを用いて縫合スケッチをリアルな画像に変換するパイプライン,(3)MegaDepthと呼ばれる事前学習された畳み込みニューラルネットワークに基づくアーキテクチャを用いて画像の深度マップを推定するパイプラインを提案する。
- 参考スコア(独自算出の注目度): 0.276240219662896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of reconstructing a 3D scene from multiple sketches. We propose a pipeline which involves (1) stitching together multiple sketches through use of correspondence points, (2) converting the stitched sketch into a realistic image using a CycleGAN, and (3) estimating that image's depth-map using a pre-trained convolutional neural network based architecture called MegaDepth. Our contribution includes constructing a dataset of image-sketch pairs, the images for which are from the Zurich Building Database, and sketches have been generated by us. We use this dataset to train a CycleGAN for our pipeline's second step. We end up with a stitching process that does not generalize well to real drawings, but the rest of the pipeline that creates a 3D reconstruction from a single sketch performs quite well on a wide variety of drawings.
- Abstract(参考訳): 複数のスケッチから3Dシーンを再構成する問題を考察する。
本稿では,(1)対応点を用いて複数のスケッチを縫合するパイプライン,(2)CycleGANを用いて縫合スケッチをリアルな画像に変換するパイプライン,(3)MegaDepthと呼ばれる事前学習された畳み込みニューラルネットワークに基づくアーキテクチャを用いて画像の深度マップを推定するパイプラインを提案する。
コントリビューションには、Zurich Building Databaseのイメージであるイメージとスケッチのペアのデータセットの構築や、スケッチの作成が含まれています。
このデータセットを使用して、パイプラインの第2ステップのCycleGANをトレーニングしています。
最終的には、実際の描画をうまく一般化しない縫製プロセスが完成するが、単一のスケッチから3D再構成を生成するパイプラインの残りの部分は、多種多様な描画でかなりうまく機能する。
関連論文リスト
- SketchTriplet: Self-Supervised Scenarized Sketch-Text-Image Triplet Generation [6.39528707908268]
シーンスケッチ用の大規模なペアデータセットは引き続き欠如している。
本稿では,既存のシーンスケッチに依存しないシーンスケッチ生成のための自己教師型手法を提案する。
シーンスケッチを中心にした大規模なデータセットをコントリビュートし、セマンティックに一貫した「テキスト・スケッチ・イメージ」三つ子を含む。
論文 参考訳(メタデータ) (2024-05-29T06:43:49Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - Strokes2Surface: Recovering Curve Networks From 4D Architectural Design Sketches [0.0]
Strokes2Surfaceはオフラインの再構築パイプラインで、不正確な4Dスケッチから十分に接続された曲線ネットワークを復元する。
アーキテクチャスケッチのプラクティスに触発されて、私たちのパイプラインは、その目標を達成するために、分類器と2つのクラスタリングモデルを組み合わせています。
論文 参考訳(メタデータ) (2023-06-12T16:26:38Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - DifferSketching: How Differently Do People Sketch 3D Objects? [78.44544977215918]
3Dオブジェクトの描画方法を理解するために,複数のスケッチデータセットが提案されている。
これらのデータセットは、しばしば小さなスケールで、オブジェクトやカテゴリの小さなセットをカバーする。
本研究では,空間的特徴と時間的特性の両面から,収集したデータをスケッチレベル,ストロークレベル,ピクセルレベルという3つのレベルで解析する。
論文 参考訳(メタデータ) (2022-09-19T06:52:18Z) - Geometric Understanding of Sketches [0.0]
そこで本研究では,システムのスケッチの幾何学的理解を支援する2つの手法について検討する。
最初の研究は、グラフ構造としての2次元線描画の解釈を扱い、また、ロボットによる物理的再構成によってその効果を示す。
2つ目の研究では、3次元幾何学に関する情報に明示的にアクセスすることなく、スケッチベースシステムの3次元幾何学的理解をテストする。
論文 参考訳(メタデータ) (2022-04-13T23:55:51Z) - Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches [65.96417928860039]
スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
論文 参考訳(メタデータ) (2021-04-01T14:10:59Z) - SketchDesc: Learning Local Sketch Descriptors for Multi-view
Correspondence [68.63311821718416]
我々はマルチビュースケッチ対応の問題について検討し、同じオブジェクトの異なるビューを持つ複数のフリーハンドスケッチを入力として扱う。
異なる視点における対応する点の視覚的特徴は、非常に異なる可能性があるため、この問題は困難である。
我々は、深層学習アプローチを採用し、データから新しいローカルスケッチ記述子を学習する。
論文 参考訳(メタデータ) (2020-01-16T11:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。