論文の概要: Volumetric Wireframe Parsing from Neural Attraction Fields
- arxiv url: http://arxiv.org/abs/2307.10206v1
- Date: Fri, 14 Jul 2023 07:25:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:29:02.300177
- Title: Volumetric Wireframe Parsing from Neural Attraction Fields
- Title(参考訳): ニューラルアトラクション場からのボリュームワイヤフレーム解析
- Authors: Nan Xue and Bin Tan and Yuxi Xiao and Liang Dong and Gui-Song Xia and
Tianfu Wu
- Abstract要約: 原始スケッチは、2Dおよび2.5D画像を処理するための基本的なパラダイムである。
本稿では, 3次元接合による3次元セグメントの計算により, プリミティブスケッチをさらに推し進める。
- 参考スコア(独自算出の注目度): 32.806441019002676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The primal sketch is a fundamental representation in Marr's vision theory,
which allows for parsimonious image-level processing from 2D to 2.5D
perception. This paper takes a further step by computing 3D primal sketch of
wireframes from a set of images with known camera poses, in which we take the
2D wireframes in multi-view images as the basis to compute 3D wireframes in a
volumetric rendering formulation. In our method, we first propose a NEural
Attraction (NEAT) Fields that parameterizes the 3D line segments with
coordinate Multi-Layer Perceptrons (MLPs), enabling us to learn the 3D line
segments from 2D observation without incurring any explicit feature
correspondences across views. We then present a novel Global Junction
Perceiving (GJP) module to perceive meaningful 3D junctions from the NEAT
Fields of 3D line segments by optimizing a randomly initialized
high-dimensional latent array and a lightweight decoding MLP. Benefitting from
our explicit modeling of 3D junctions, we finally compute the primal sketch of
3D wireframes by attracting the queried 3D line segments to the 3D junctions,
significantly simplifying the computation paradigm of 3D wireframe parsing. In
experiments, we evaluate our approach on the DTU and BlendedMVS datasets with
promising performance obtained. As far as we know, our method is the first
approach to achieve high-fidelity 3D wireframe parsing without requiring
explicit matching.
- Abstract(参考訳): 原始スケッチは、Marrの視覚理論の基本的な表現であり、2Dから2.5Dの知覚まで類似した画像レベルの処理を可能にする。
本稿では,多視点画像の2次元ワイヤフレームをボリュームレンダリングの定式化の基礎として捉えた,既知のカメラポーズを持つ画像集合からのワイヤフレームの3次元プリミティブスケッチの計算により,さらに一歩進める。
本研究では,まず3次元線分を座標多層パーセプトロン(mlps)でパラメータ化するニューラルアトラクション(neat)フィールドを提案する。
次に、ランダムに初期化された高次元ラテントアレイと軽量復号MLPを最適化することにより、3次元ラインセグメントのNEATフィールドから有意義な3次元接合を知覚する新しいグローバルジャンクション知覚(GJP)モジュールを提案する。
3次元ワイヤフレーム解析の計算パラダイムを著しく単純化し, 3次元配線セグメントを3次元接合に誘引することで, 最終的に3次元ワイヤフレームの原始スケッチを計算する。
実験では,DTUおよびBlendedMVSデータセットに対するアプローチを有望な性能で評価した。
我々の知る限り、この手法は明示的なマッチングを必要とせず、高忠実度な3dワイヤフレーム解析を実現する最初の手法である。
関連論文リスト
- Repeat and Concatenate: 2D to 3D Image Translation with 3D to 3D Generative Modeling [14.341099905684844]
本稿では,2次元X線と3次元CTライクな再構成が可能な2次元-3次元画像変換法について,簡単な手法で検討する。
我々は,潜伏空間内の複数の2次元ビューにまたがる情報を統合する既存のアプローチが,潜伏符号化中に貴重な信号情報を失うことを観察する。代わりに,2次元ビューを高チャネルの3次元ボリュームに繰り返して,簡単な3次元から3次元生成モデル問題として3次元再構成課題にアプローチする。
この方法では、再構成された3Dボリュームが、2D入力から貴重な情報を保持でき、Swin Uのチャネル状態間で渡される。
論文 参考訳(メタデータ) (2024-06-26T15:18:20Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - NEF: Neural Edge Fields for 3D Parametric Curve Reconstruction from
Multi-view Images [18.303674194874457]
キャリブレーションされた多視点画像から物体の3次元特徴曲線を再構成する問題について検討する。
ニューラルエッジ場(NEF)と呼ばれる3次元エッジの密度分布を表すニューラル暗黙フィールドを学習する。
NEFは、所定のビューで2次元エッジマップを描画するビューベースのレンダリングロスで最適化され、そのビューの画像から抽出された接地トラスエッジマップと比較される。
論文 参考訳(メタデータ) (2023-03-14T06:45:13Z) - Predicting Protein-Ligand Binding Affinity with Equivariant Line Graph
Network [22.396125176265997]
既存のアプローチでは、3Dタンパク質-リガンド複合体を2次元(2次元)グラフに変換し、グラフニューラルネットワーク(GNN)を使用して結合親和性を予測する。
本稿では,3次元タンパク質配位子複合体の親和性予測のための新しいEquivariant Line Graph Network (ELGN)を提案する。
2つの実データセットの実験結果から,複数の最先端ベースライン上でのELGNの有効性が示された。
論文 参考訳(メタデータ) (2022-10-27T02:15:52Z) - Multi-initialization Optimization Network for Accurate 3D Human Pose and
Shape Estimation [75.44912541912252]
我々はMulti-Initialization Optimization Network(MION)という3段階のフレームワークを提案する。
第1段階では,入力サンプルの2次元キーポイントに適合する粗い3次元再構成候補を戦略的に選択する。
第2段階では, メッシュ改質トランス (MRT) を設計し, 自己保持機構を用いて粗い再構成結果をそれぞれ洗練する。
最後に,RGB画像の視覚的証拠が与えられた3次元再構成と一致するかどうかを評価することで,複数の候補から最高の結果を得るために,一貫性推定ネットワーク(CEN)を提案する。
論文 参考訳(メタデータ) (2021-12-24T02:43:58Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。