論文の概要: Volumetric Wireframe Parsing from Neural Attraction Fields
- arxiv url: http://arxiv.org/abs/2307.10206v1
- Date: Fri, 14 Jul 2023 07:25:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:29:02.300177
- Title: Volumetric Wireframe Parsing from Neural Attraction Fields
- Title(参考訳): ニューラルアトラクション場からのボリュームワイヤフレーム解析
- Authors: Nan Xue and Bin Tan and Yuxi Xiao and Liang Dong and Gui-Song Xia and
Tianfu Wu
- Abstract要約: 原始スケッチは、2Dおよび2.5D画像を処理するための基本的なパラダイムである。
本稿では, 3次元接合による3次元セグメントの計算により, プリミティブスケッチをさらに推し進める。
- 参考スコア(独自算出の注目度): 32.806441019002676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The primal sketch is a fundamental representation in Marr's vision theory,
which allows for parsimonious image-level processing from 2D to 2.5D
perception. This paper takes a further step by computing 3D primal sketch of
wireframes from a set of images with known camera poses, in which we take the
2D wireframes in multi-view images as the basis to compute 3D wireframes in a
volumetric rendering formulation. In our method, we first propose a NEural
Attraction (NEAT) Fields that parameterizes the 3D line segments with
coordinate Multi-Layer Perceptrons (MLPs), enabling us to learn the 3D line
segments from 2D observation without incurring any explicit feature
correspondences across views. We then present a novel Global Junction
Perceiving (GJP) module to perceive meaningful 3D junctions from the NEAT
Fields of 3D line segments by optimizing a randomly initialized
high-dimensional latent array and a lightweight decoding MLP. Benefitting from
our explicit modeling of 3D junctions, we finally compute the primal sketch of
3D wireframes by attracting the queried 3D line segments to the 3D junctions,
significantly simplifying the computation paradigm of 3D wireframe parsing. In
experiments, we evaluate our approach on the DTU and BlendedMVS datasets with
promising performance obtained. As far as we know, our method is the first
approach to achieve high-fidelity 3D wireframe parsing without requiring
explicit matching.
- Abstract(参考訳): 原始スケッチは、Marrの視覚理論の基本的な表現であり、2Dから2.5Dの知覚まで類似した画像レベルの処理を可能にする。
本稿では,多視点画像の2次元ワイヤフレームをボリュームレンダリングの定式化の基礎として捉えた,既知のカメラポーズを持つ画像集合からのワイヤフレームの3次元プリミティブスケッチの計算により,さらに一歩進める。
本研究では,まず3次元線分を座標多層パーセプトロン(mlps)でパラメータ化するニューラルアトラクション(neat)フィールドを提案する。
次に、ランダムに初期化された高次元ラテントアレイと軽量復号MLPを最適化することにより、3次元ラインセグメントのNEATフィールドから有意義な3次元接合を知覚する新しいグローバルジャンクション知覚(GJP)モジュールを提案する。
3次元ワイヤフレーム解析の計算パラダイムを著しく単純化し, 3次元配線セグメントを3次元接合に誘引することで, 最終的に3次元ワイヤフレームの原始スケッチを計算する。
実験では,DTUおよびBlendedMVSデータセットに対するアプローチを有望な性能で評価した。
我々の知る限り、この手法は明示的なマッチングを必要とせず、高忠実度な3dワイヤフレーム解析を実現する最初の手法である。
関連論文リスト
- Oriented-grid Encoder for 3D Implicit Representations [10.02138130221506]
本論文は,3次元幾何エンコーダの3次元特性を明示的に利用した最初のものである。
提案手法は,従来の手法と比較して最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-02-09T19:28:13Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance
Fields [73.97131748433212]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - Implicit Ray-Transformers for Multi-view Remote Sensing Image
Segmentation [26.726658200149544]
スパースラベル付きRSシーンセマンティックセグメンテーションのためのインプリシティ・ニューラル表現(INR)に基づく「インプリシティ・レイ・トランスフォーマ(IRT)」を提案する。
提案手法は,2段階の学習プロセスを含む。第1段階では,リモートセンシングシーンの色と3次元構造を符号化するために,ニューラルネットワークを最適化する。
第2段階では、ニューラルネットワークの3D特徴と2Dテクスチャ特徴の関係を利用して、より優れた意味表現を学習するレイ変換器を設計する。
論文 参考訳(メタデータ) (2023-03-15T07:05:07Z) - Panoptic Lifting for 3D Scene Understanding with Neural Fields [32.59498558663363]
そこで本研究では,撮影シーンの画像からパノプティカル3D表現を学習するための新しい手法を提案する。
本手法では,事前学習ネットワークから推定される2次元空間分割マスクのみを必要とする。
実験結果は、Hypersim、Replica、ScanNetデータセットに挑戦するアプローチを検証する。
論文 参考訳(メタデータ) (2022-12-19T19:15:36Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z) - 3D Shape Segmentation with Geometric Deep Learning [2.512827436728378]
本稿では,部分分割問題としてセグメント化全体を解くために,3次元形状の3次元拡張ビューを生成するニューラルネットワークベースのアプローチを提案する。
提案手法は,公開データセットの3次元形状と,フォトグラム法を用いて再構成した実物体を用いて検証する。
論文 参考訳(メタデータ) (2020-02-02T14:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。