論文の概要: NEAT: Distilling 3D Wireframes from Neural Attraction Fields
- arxiv url: http://arxiv.org/abs/2307.10206v2
- Date: Wed, 3 Apr 2024 14:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 23:27:42.248914
- Title: NEAT: Distilling 3D Wireframes from Neural Attraction Fields
- Title(参考訳): ニューアット:ニューアトラクションから3Dワイヤーフレームを蒸留
- Authors: Nan Xue, Bin Tan, Yuxi Xiao, Liang Dong, Gui-Song Xia, Tianfu Wu, Yujun Shen,
- Abstract要約: 本稿では,3次元再構成セグメントと焦点接合を用いたラインフレーム接合の問題について検討する。
ProjectNEATは、クロスアートマッチングをゼロから行わずに、ジョイントニューラルフィールドとビューを楽しみます。
- 参考スコア(独自算出の注目度): 52.90572335390092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the problem of structured 3D reconstruction using wireframes that consist of line segments and junctions, focusing on the computation of structured boundary geometries of scenes. Instead of leveraging matching-based solutions from 2D wireframes (or line segments) for 3D wireframe reconstruction as done in prior arts, we present NEAT, a rendering-distilling formulation using neural fields to represent 3D line segments with 2D observations, and bipartite matching for perceiving and distilling of a sparse set of 3D global junctions. The proposed {NEAT} enjoys the joint optimization of the neural fields and the global junctions from scratch, using view-dependent 2D observations without precomputed cross-view feature matching. Comprehensive experiments on the DTU and BlendedMVS datasets demonstrate our NEAT's superiority over state-of-the-art alternatives for 3D wireframe reconstruction. Moreover, the distilled 3D global junctions by NEAT, are a better initialization than SfM points, for the recently-emerged 3D Gaussian Splatting for high-fidelity novel view synthesis using about 20 times fewer initial 3D points. Project page: \url{https://xuenan.net/neat}.
- Abstract(参考訳): 本稿では,線分と接合からなるワイヤフレームを用いた3次元構造復元の問題点を考察し,シーンの構造的境界ジオメトリの計算に焦点をあてる。
従来の3次元ワイヤフレーム再構成において,2次元ワイヤフレーム(またはラインセグメント)からのマッチングベースのソリューションを活用する代わりに,ニューラルネットワークを用いた3次元ラインセグメントを2次元観察で表現するためのレンダリング蒸留式NEATと,スパース集合の3次元グローバルジャンクションの認識と蒸留のための2部マッチングを提案する。
The proposed {NEAT} enjoys the joint optimization of the neural field and the global junctions from scratch, using view-dependent twoD observed without without precomputed cross-view feature matching。
DTUとBlendedMVSデータセットに関する総合的な実験は、NEATが3Dワイヤーフレーム再構築のための最先端の代替品よりも優れていることを示している。
さらに,NEATによる蒸留3Dグローバルジャンクションは,SfM点よりも,約20倍の初発3D点を用いた高忠実な新規ビュー合成のための3Dガウシアンスプラッティングにおいて,より優れた初期化である。
プロジェクトページ: \url{https://xuenan.net/neat}。
関連論文リスト
- Repeat and Concatenate: 2D to 3D Image Translation with 3D to 3D Generative Modeling [14.341099905684844]
本稿では,2次元X線と3次元CTライクな再構成が可能な2次元-3次元画像変換法について,簡単な手法で検討する。
我々は,潜伏空間内の複数の2次元ビューにまたがる情報を統合する既存のアプローチが,潜伏符号化中に貴重な信号情報を失うことを観察する。代わりに,2次元ビューを高チャネルの3次元ボリュームに繰り返して,簡単な3次元から3次元生成モデル問題として3次元再構成課題にアプローチする。
この方法では、再構成された3Dボリュームが、2D入力から貴重な情報を保持でき、Swin Uのチャネル状態間で渡される。
論文 参考訳(メタデータ) (2024-06-26T15:18:20Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - NEF: Neural Edge Fields for 3D Parametric Curve Reconstruction from
Multi-view Images [18.303674194874457]
キャリブレーションされた多視点画像から物体の3次元特徴曲線を再構成する問題について検討する。
ニューラルエッジ場(NEF)と呼ばれる3次元エッジの密度分布を表すニューラル暗黙フィールドを学習する。
NEFは、所定のビューで2次元エッジマップを描画するビューベースのレンダリングロスで最適化され、そのビューの画像から抽出された接地トラスエッジマップと比較される。
論文 参考訳(メタデータ) (2023-03-14T06:45:13Z) - Predicting Protein-Ligand Binding Affinity with Equivariant Line Graph
Network [22.396125176265997]
既存のアプローチでは、3Dタンパク質-リガンド複合体を2次元(2次元)グラフに変換し、グラフニューラルネットワーク(GNN)を使用して結合親和性を予測する。
本稿では,3次元タンパク質配位子複合体の親和性予測のための新しいEquivariant Line Graph Network (ELGN)を提案する。
2つの実データセットの実験結果から,複数の最先端ベースライン上でのELGNの有効性が示された。
論文 参考訳(メタデータ) (2022-10-27T02:15:52Z) - Multi-initialization Optimization Network for Accurate 3D Human Pose and
Shape Estimation [75.44912541912252]
我々はMulti-Initialization Optimization Network(MION)という3段階のフレームワークを提案する。
第1段階では,入力サンプルの2次元キーポイントに適合する粗い3次元再構成候補を戦略的に選択する。
第2段階では, メッシュ改質トランス (MRT) を設計し, 自己保持機構を用いて粗い再構成結果をそれぞれ洗練する。
最後に,RGB画像の視覚的証拠が与えられた3次元再構成と一致するかどうかを評価することで,複数の候補から最高の結果を得るために,一貫性推定ネットワーク(CEN)を提案する。
論文 参考訳(メタデータ) (2021-12-24T02:43:58Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。