論文の概要: Deep Implicit Moving Least-Squares Functions for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2103.12266v1
- Date: Tue, 23 Mar 2021 02:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:46:20.543960
- Title: Deep Implicit Moving Least-Squares Functions for 3D Reconstruction
- Title(参考訳): 深部陰影移動最小二乗関数による3次元再構成
- Authors: Shi-Lin Liu, Hao-Xiang Guo, Hao Pan, Peng-Shuai Wang, Xin Tong, Yang
Liu
- Abstract要約: 本研究では, 離散点集合を平滑曲面に変換し, よく知られた暗黙的移動最小二乗曲面(IMLS)の定式化を提案する。
IMLS表面生成を深層ニューラルネットワークに組み込んで、点集合の柔軟性と暗黙曲面の高品質の両方を継承する。
3Dオブジェクト再構築の実験では、IMLSNetsが再構築品質と計算効率の点で最先端の学習ベースの方法を上回ることを実証しています。
- 参考スコア(独自算出の注目度): 23.8586965588835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point set is a flexible and lightweight representation widely used for 3D
deep learning. However, their discrete nature prevents them from representing
continuous and fine geometry, posing a major issue for learning-based shape
generation. In this work, we turn the discrete point sets into smooth surfaces
by introducing the well-known implicit moving least-squares (IMLS) surface
formulation, which naturally defines locally implicit functions on point sets.
We incorporate IMLS surface generation into deep neural networks for inheriting
both the flexibility of point sets and the high quality of implicit surfaces.
Our IMLSNet predicts an octree structure as a scaffold for generating MLS
points where needed and characterizes shape geometry with learned local priors.
Furthermore, our implicit function evaluation is independent of the neural
network once the MLS points are predicted, thus enabling fast runtime
evaluation. Our experiments on 3D object reconstruction demonstrate that
IMLSNets outperform state-of-the-art learning-based methods in terms of
reconstruction quality and computational efficiency. Extensive ablation tests
also validate our network design and loss functions.
- Abstract(参考訳): point setは3dディープラーニングに広く使われている柔軟で軽量な表現である。
しかし、それらの離散的な性質は、連続的かつ微細な幾何学を表現するのを妨げ、学習に基づく形状生成の大きな問題を引き起こす。
本研究では,点集合上の局所的暗黙的関数を自然に定義するよく知られた暗黙的移動最小二乗(imls)曲面定式化を導入することにより,離散点集合を滑らかな曲面に変換する。
IMLS表面生成を深層ニューラルネットワークに組み込んで、点集合の柔軟性と暗黙曲面の高品質の両方を継承する。
imlsnetはoctree構造を,必要であればmlsポイントを生成するための足場として予測し,学習した局所的優先度で形状形状を特徴付ける。
さらに,mls点が予測された時点では,暗黙的関数評価はニューラルネットワークとは独立であり,実行時の高速評価を可能にする。
3次元オブジェクト再構成実験により、IMLSNetは、再構築品質と計算効率の点で最先端の学習手法より優れていることが示された。
広範なアブレーションテストもネットワーク設計と損失関数を検証する。
関連論文リスト
- Learning Unsigned Distance Fields from Local Shape Functions for 3D Surface Reconstruction [42.840655419509346]
本稿では, 局所形状関数を利用してUDFを学習し, 3次元点雲から表面を再構成する新しいニューラルネットワーク, LoSF-UDFを提案する。
3D形状は局所的な領域で単純なパターンを示すので、ポイントクラウドパッチのトレーニングデータセットを作成するのに役立ちます。
提案手法は,各問合せ点付近の特定の半径内の特徴を学習し,注意機構を用いてUDF推定の重要な特徴に焦点をあてる。
論文 参考訳(メタデータ) (2024-07-01T14:39:03Z) - ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with
Pre-trained Vision-Language Models [62.663113296987085]
クラス増分学習(class-incremental learning)は、モデルが限られたデータに基づいて漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
冗長特徴除去器(RFE)と空間ノイズ補償器(SNC)の2つの新しいコンポーネントを紹介する。
既存の3次元データセットの不均衡を考慮し、3次元FSCILモデルのより微妙な評価を提供する新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - SurFit: Learning to Fit Surfaces Improves Few Shot Learning on Point
Clouds [48.61222927399794]
SurFitは3次元形状分割ネットワークのラベルを効率的に学習するための単純な手法である。
3次元形状の表面を幾何学的プリミティブに分解する自己指導型タスクに基づいている。
論文 参考訳(メタデータ) (2021-12-27T23:55:36Z) - Learning Modified Indicator Functions for Surface Reconstruction [10.413340575612233]
正規化のない原点雲からの暗黙的表面再構成のための学習に基づくアプローチを提案する。
我々の手法はポテンシャルエネルギー理論においてガウス・レムマにインスパイアされ、指標関数に対して明示的な積分公式を与える。
我々は、表面積分を行うための新しいディープニューラルネットワークを設計し、修正されたインジケータ関数を、不向きでノイズの多い点群から学習する。
論文 参考訳(メタデータ) (2021-11-18T05:30:35Z) - Shape As Points: A Differentiable Poisson Solver [118.12466580918172]
本稿では,ポアソン表面再構成 (PSR) の微分可能な定式化を用いた,微分可能な点間メッシュ層を提案する。
微分可能なPSR層は、暗示指標場を介して、明示的な3D点表現を3Dメッシュに効率よく、かつ、差別的にブリッジすることができる。
ニューラル暗黙の表現と比較して、私たちのシェープ・アズ・ポイント(SAP)モデルはより解釈可能で、軽量で、1桁の推論時間を加速します。
論文 参考訳(メタデータ) (2021-06-07T09:28:38Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z) - Learning Occupancy Function from Point Clouds for Surface Reconstruction [6.85316573653194]
表面から採取した点雲から3次元形状を復元するために, 入射関数に基づく表面再構成が長い間研究されてきた。
本稿では,スパース点雲から占有関数を学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T02:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。