論文の概要: Neural Convolutional Surfaces
- arxiv url: http://arxiv.org/abs/2204.02289v1
- Date: Tue, 5 Apr 2022 15:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 14:16:07.275864
- Title: Neural Convolutional Surfaces
- Title(参考訳): ニューラル畳み込み表面
- Authors: Luca Morreale and Noam Aigerman and Paul Guerrero and Vladimir G. Kim
and Niloy J. Mitra
- Abstract要約: この研究は、大域的、粗い構造から、微細で局所的で、おそらく繰り返される幾何学を歪める形状の表現に関係している。
このアプローチは, 最先端技術よりも優れたニューラル形状圧縮を実現するとともに, 形状詳細の操作と伝達を可能にする。
- 参考スコア(独自算出の注目度): 59.172308741945336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work is concerned with a representation of shapes that disentangles
fine, local and possibly repeating geometry, from global, coarse structures.
Achieving such disentanglement leads to two unrelated advantages: i) a
significant compression in the number of parameters required to represent a
given geometry; ii) the ability to manipulate either global geometry, or local
details, without harming the other. At the core of our approach lies a novel
pipeline and neural architecture, which are optimized to represent one specific
atlas, representing one 3D surface. Our pipeline and architecture are designed
so that disentanglement of global geometry from local details is accomplished
through optimization, in a completely unsupervised manner. We show that this
approach achieves better neural shape compression than the state of the art, as
well as enabling manipulation and transfer of shape details. Project page at
http://geometry.cs.ucl.ac.uk/projects/2022/cnnmaps/ .
- Abstract(参考訳): この研究は、大域的、粗い構造から、微細で局所的で、おそらく繰り返される幾何学を歪める形状の表現に関係している。
このような絡み合いの達成は、無関係な2つの利点をもたらす。
一 所定の幾何学を表すのに必要なパラメータの数を大幅に圧縮すること。
二 地球の地形又は局地的な詳細を他方に害を加えることなく操作することができること。
このアプローチのコアには、新しいパイプラインとニューラルアーキテクチャがあり、それは1つの特定のアトラスを表現するように最適化され、1つの3D表面を表す。
我々のパイプラインとアーキテクチャは、局所的な細部からのグローバルな幾何学の切り離しが、完全に教師なしの方法で最適化によって達成されるよう設計されている。
このアプローチは, 最先端技術よりも優れた神経形状圧縮を実現するとともに, 形状詳細の操作と伝達を可能にする。
プロジェクトページ http://geometry.cs.ucl.ac.uk/projects/2022/cnnmaps/
関連論文リスト
- Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Enhancing Local Geometry Learning for 3D Point Cloud via Decoupling
Convolution [10.449455311881398]
そこで我々は,局所幾何学の学習を促進できる,単純かつ効果的なアーキテクチャ単位として,ラプラシアン単位(LU)を提案する。
LUは、典型的なクラウド理解タスクにおいて、競争力または優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-04T03:49:13Z) - Depth Completion using Geometry-Aware Embedding [22.333381291860498]
本稿では,幾何認識の埋め込みを効率的に学習する手法を提案する。
局所的および大域的な幾何学的構造情報を、例えば、シーンレイアウト、オブジェクトのサイズと形状などの3Dポイントから符号化し、深度推定を導く。
論文 参考訳(メタデータ) (2022-03-21T12:06:27Z) - Learning to generate shape from global-local spectra [0.0]
我々は,この手法を,いわゆる形状-スペクトルパラダイムの最近の進歩の上に構築する。
我々は、スペクトルを自然なものとみなし、形状の多様性を符号化するために表現を使用する準備ができている。
提案手法は既存手法や代替手法と比較して改善された。
論文 参考訳(メタデータ) (2021-08-04T16:39:56Z) - Volume Rendering of Neural Implicit Surfaces [57.802056954935495]
本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
論文 参考訳(メタデータ) (2021-06-22T20:23:16Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。