論文の概要: SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling
- arxiv url: http://arxiv.org/abs/2208.06880v1
- Date: Sun, 14 Aug 2022 16:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:58:09.114269
- Title: SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling
- Title(参考訳): SketchSampler:ビュー依存深度サンプリングによるSketchベースの3D再構成
- Authors: Chenjian Gao, Qian Yu, Lu Sheng, Yi-Zhe Song, Dong Xu
- Abstract要約: 1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
- 参考スコア(独自算出の注目度): 75.957103837167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing a 3D shape based on a single sketch image is challenging due
to the large domain gap between a sparse, irregular sketch and a regular, dense
3D shape. Existing works try to employ the global feature extracted from sketch
to directly predict the 3D coordinates, but they usually suffer from losing
fine details that are not faithful to the input sketch. Through analyzing the
3D-to-2D projection process, we notice that the density map that characterizes
the distribution of 2D point clouds (i.e., the probability of points projected
at each location of the projection plane) can be used as a proxy to facilitate
the reconstruction process. To this end, we first translate a sketch via an
image translation network to a more informative 2D representation that can be
used to generate a density map. Next, a 3D point cloud is reconstructed via a
two-stage probabilistic sampling process: first recovering the 2D points (i.e.,
the x and y coordinates) by sampling the density map; and then predicting the
depth (i.e., the z coordinate) by sampling the depth values at the ray
determined by each 2D point. Extensive experiments are conducted, and both
quantitative and qualitative results show that our proposed approach
significantly outperforms other baseline methods.
- Abstract(参考訳): 1枚のスケッチ画像に基づいて3d形状を再構築することは、疎らで不規則なスケッチと、規則的で密集した3d形状との領域ギャップが大きいため困難である。
既存の作品では、3d座標を直接予測するためにスケッチから抽出されたグローバル機能を使おうとしているが、入力スケッチに忠実でない詳細を失うことが多い。
3次元から2次元の投影過程を解析することにより、2次元点雲の分布を特徴付ける密度マップ(すなわち、投影面の各位置に投影される点の確率)をプロキシとして利用し、再構成プロセスを容易にすることに気づく。
この目的のために、まず画像翻訳ネットワークを介してスケッチを、密度マップを生成するために使用できるより情報性の高い2D表現に変換する。
次に、密度マップをサンプリングして、まず2d点(すなわちxおよびy座標)を回収し、次に、各2d点によって決定されたレイの深さ値をサンプリングして深さ(すなわちz座標)を予測する2段階確率的サンプリングプロセスにより3d点雲を再構成する。
広範囲にわたる実験を行い, 定量的および定性的な結果から, 提案手法が他のベースライン法を大きく上回ることを示した。
関連論文リスト
- MV2Cyl: Reconstructing 3D Extrusion Cylinders from Multi-View Images [13.255044855902408]
2次元多視点画像から3次元を再構成する新しい手法であるMV2Cylを提案する。
本研究では,2次元スケッチと抽出パラメータ推定において最適な精度で最適な再構成結果を得る。
論文 参考訳(メタデータ) (2024-06-16T08:54:38Z) - EP2P-Loc: End-to-End 3D Point to 2D Pixel Localization for Large-Scale
Visual Localization [44.05930316729542]
本稿では,3次元点雲の大規模可視化手法EP2P-Locを提案する。
画像中の見えない3D点を除去する簡単なアルゴリズムを提案する。
このタスクで初めて、エンドツーエンドのトレーニングに差別化可能なツールを使用します。
論文 参考訳(メタデータ) (2023-09-14T07:06:36Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - TerrainMesh: Metric-Semantic Terrain Reconstruction from Aerial Images
Using Joint 2D-3D Learning [20.81202315793742]
本稿では,視覚的オドメトリーアルゴリズムによって保持される各カメラにおける局所的メートル法-セマンティックメッシュを再構築する2次元3次元学習手法を提案する。
メッシュはグローバル環境モデルに組み立てて、オンライン操作中の地形のトポロジとセマンティクスをキャプチャすることができる。
論文 参考訳(メタデータ) (2022-04-23T05:18:39Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - KAPLAN: A 3D Point Descriptor for Shape Completion [80.15764700137383]
KAPLANは、一連の2D畳み込みを通じて局所的な形状情報を集約する3Dポイント記述子である。
各平面において、正規点や平面間距離のような点特性は2次元グリッドに集約され、効率的な2次元畳み込みエンコーダを持つ特徴表現に抽象化される。
公開データセットの実験では、KAPLANが3D形状の完成のために最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2020-07-31T21:56:08Z) - SeqXY2SeqZ: Structure Learning for 3D Shapes by Sequentially Predicting
1D Occupancy Segments From 2D Coordinates [61.04823927283092]
本稿では,各2次元位置における関数の出力が内部の線分列である2次元関数を用いて3次元形状を表現することを提案する。
本研究では,SeqXY2SeqZと呼ばれるセック2Seqモデルを用いて,2つの任意の軸に沿った2次元座標列から3つの軸に沿った1次元位置の列への写像を学習する手法を提案する。
実験の結果,SeqXY2SeqZは広く使用されているベンチマークで最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-12T00:24:36Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。