論文の概要: Neural Mesh Fusion: Unsupervised 3D Planar Surface Understanding
- arxiv url: http://arxiv.org/abs/2402.16739v1
- Date: Mon, 26 Feb 2024 17:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 20:01:06.333912
- Title: Neural Mesh Fusion: Unsupervised 3D Planar Surface Understanding
- Title(参考訳): ニューラルメッシュ融合:教師なし3次元平面表面理解
- Authors: Farhad G. Zanjani, Hong Cai, Yinhao Zhu, Leyla Mirvakhabova, Fatih
Porikli
- Abstract要約: ニューラルメッシュ融合(Neural Mesh Fusion, NMF)は、多視点画像観測によるポリゴンメッシュの共同最適化のための効率的な手法である。
NMFは暗黙のニューラルネットワークに基づくシーン再構成手法に比べて計算効率がかなり良い。
- 参考スコア(独自算出の注目度): 45.33209870505472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents Neural Mesh Fusion (NMF), an efficient approach for joint
optimization of polygon mesh from multi-view image observations and
unsupervised 3D planar-surface parsing of the scene. In contrast to implicit
neural representations, NMF directly learns to deform surface triangle mesh and
generate an embedding for unsupervised 3D planar segmentation through
gradient-based optimization directly on the surface mesh. The conducted
experiments show that NMF obtains competitive results compared to
state-of-the-art multi-view planar reconstruction, while not requiring any
ground-truth 3D or planar supervision. Moreover, NMF is significantly more
computationally efficient compared to implicit neural rendering-based scene
reconstruction approaches.
- Abstract(参考訳): 本論文では,多視点画像観測と教師なし3次元平面表面解析による多角形メッシュの共同最適化手法であるNeural Mesh Fusion (NMF)を提案する。
暗黙的なニューラル表現とは対照的に、NMFは表面トライアングルメッシュの変形を直接学習し、勾配に基づく最適化を通じて、教師なしの3次元平面分割のための埋め込みを生成する。
実験の結果,NMFは現状の多面的な平面再構成と比較して,地上3Dや平面の監督を必要とせず,競争的な結果が得られることがわかった。
さらに、NMFは暗黙のニューラルネットワークに基づくシーン再構成手法に比べて、計算効率がかなり高い。
関連論文リスト
- MRIo3DS-Net: A Mutually Reinforcing Images to 3D Surface RNN-like framework for model-adaptation indoor 3D reconstruction [6.763241608372683]
本稿では,モデル適応型屋内3次元再構成のための3次元表面リカレントニューラルネットワークに画像を相互に補強するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T06:46:57Z) - NEAT: Distilling 3D Wireframes from Neural Attraction Fields [52.90572335390092]
本稿では,3次元再構成セグメントと焦点接合を用いたラインフレーム接合の問題について検討する。
ProjectNEATは、クロスアートマッチングをゼロから行わずに、ジョイントニューラルフィールドとビューを楽しみます。
論文 参考訳(メタデータ) (2023-07-14T07:25:47Z) - Self-supervised Pre-training with Masked Shape Prediction for 3D Scene
Understanding [106.0876425365599]
Masked Shape Prediction (MSP)は、3Dシーンでマスクされた信号モデリングを行うための新しいフレームワークである。
MSPは3Dセマンティックキュー、すなわち幾何学的形状をマスクされた点の予測ターゲットとして使用する。
論文 参考訳(メタデータ) (2023-05-08T20:09:19Z) - Learning Neural Radiance Fields from Multi-View Geometry [1.1011268090482573]
画像に基づく3次元再構成のために,多視点幾何アルゴリズムとニューラルレージアンス場(NeRF)を組み合わせたMVG-NeRF(MVG-NeRF)というフレームワークを提案する。
NeRFは暗黙の3D表現の分野に革命をもたらした。
論文 参考訳(メタデータ) (2022-10-24T08:53:35Z) - NeurMiPs: Neural Mixture of Planar Experts for View Synthesis [49.25559264261876]
NeurMiPsは、幾何学と外観をモデリングするための新しい平面ベースのシーン表現である。
画像との交差点において、平面交叉と合成出力色と密度を計算し、新しいビューを描画する。
提案手法の性能と速度は,新規なビュー合成における他の3次元表現と比較して,実験により向上した。
論文 参考訳(メタデータ) (2022-04-28T17:59:41Z) - 3D Dense Face Alignment with Fused Features by Aggregating CNNs and GCNs [28.7443367565456]
これは、標準畳み込みニューラルネットワーク(CNN)とグラフ畳み込みネットワーク(GCN)をシームレスに結合することで達成される。
CNNとGCNの異なる層やステージにまたがる特徴を反復的に融合させることで,我々のアプローチは高密度な顔アライメントと3次元顔再構成を同時に実現することができる。
いくつかの挑戦的なデータセットの実験により、我々の手法は2次元および3次元の顔アライメントタスクにおける最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-03-09T11:07:10Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。