論文の概要: HyperFlow: Representing 3D Objects as Surfaces
- arxiv url: http://arxiv.org/abs/2006.08710v1
- Date: Mon, 15 Jun 2020 19:18:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-21 04:09:06.397233
- Title: HyperFlow: Representing 3D Objects as Surfaces
- Title(参考訳): HyperFlow: 3Dオブジェクトをサーフェスとして表現
- Authors: Przemys{\l}aw Spurek, Maciej Zi\k{e}ba, Jacek Tabor, Tomasz
Trzci\'nski
- Abstract要約: 本稿では,ハイパーネットを利用した新しい生成モデルを提案する。
我々は、競合するアプローチよりも質的な結果が得られる連続的なメッシュベースのオブジェクト表現を得る。
- 参考スコア(独自算出の注目度): 19.980044265074298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present HyperFlow - a novel generative model that leverages
hypernetworks to create continuous 3D object representations in a form of
lightweight surfaces (meshes), directly out of point clouds. Efficient object
representations are essential for many computer vision applications, including
robotic manipulation and autonomous driving. However, creating those
representations is often cumbersome, because it requires processing unordered
sets of point clouds. Therefore, it is either computationally expensive, due to
additional optimization constraints such as permutation invariance, or leads to
quantization losses introduced by binning point clouds into discrete voxels.
Inspired by mesh-based representations of objects used in computer graphics, we
postulate a fundamentally different approach and represent 3D objects as a
family of surfaces. To that end, we devise a generative model that uses a
hypernetwork to return the weights of a Continuous Normalizing Flows (CNF)
target network. The goal of this target network is to map points from a
probability distribution into a 3D mesh. To avoid numerical instability of the
CNF on compact support distributions, we propose a new Spherical Log-Normal
function which models density of 3D points around object surfaces mimicking
noise introduced by 3D capturing devices. As a result, we obtain continuous
mesh-based object representations that yield better qualitative results than
competing approaches, while reducing training time by over an order of
magnitude.
- Abstract(参考訳): 本稿では,ハイパーネットワークを活用した新しい生成モデルであるHyperFlowを紹介し,軽量な表面(メシ)の形で連続的な3Dオブジェクト表現を,ポイントクラウドから直接生成する。
効率的なオブジェクト表現は、ロボット操作や自律運転を含む多くのコンピュータビジョンアプリケーションに不可欠である。
しかしながら、これらの表現の作成は、整列されていない点雲の集合を処理する必要があるため、しばしば煩雑である。
したがって、置換不変性のような追加の最適化制約のために計算コストがかかるか、あるいは点雲を離散ボクセルに結合することで量子化損失をもたらす。
コンピュータグラフィックスで使用されるオブジェクトのメッシュベース表現にインスパイアされた我々は、根本的に異なるアプローチを仮定し、3Dオブジェクトを表面のファミリとして表現する。
そこで我々は,連続正規化フロー(CNF)ターゲットネットワークの重みを返すためにハイパーネットワークを用いた生成モデルを考案した。
このターゲットネットワークの目標は、確率分布からの点を3dメッシュにマッピングすることである。
コンパクトな支持分布におけるCNFの数値不安定性を回避するために,3次元撮像装置が導入したノイズを模倣した物体表面の3次元点密度をモデル化する球面対数関数を提案する。
その結果、トレーニング時間を1桁以上削減しながら、競合するアプローチよりも質的な結果が得られる連続的なメッシュベースのオブジェクト表現が得られる。
関連論文リスト
- HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Flow-based GAN for 3D Point Cloud Generation from a Single Image [16.04710129379503]
本稿では,任意の解像度の点群をサンプリングするためのフローベース明示的生成モデルを継承する,ハイブリッドな明示的生成モデルを提案する。
大規模合成データセットShapeNetについて評価し,提案手法の優れた性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-08T17:58:20Z) - Points2NeRF: Generating Neural Radiance Fields from 3D point cloud [0.0]
ニューラルラジアンス場(NeRF)として3次元物体を表現することを提案する。
ハイパーネットワークのパラダイムを活用して、モデルをトレーニングして、関連するカラー値を持つ3Dポイントクラウドを取ります。
提案手法は効率的な3次元オブジェクト表現を提供し,既存手法に対するいくつかの利点を提供する。
論文 参考訳(メタデータ) (2022-06-02T20:23:33Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - HyperCube: Implicit Field Representations of Voxelized 3D Models [18.868266675878996]
本稿では,3Dボクセルの直接処理を可能にするHyperCubeアーキテクチャを提案する。
ボクセル内から個々の3Dサンプルを処理するのではなく, 凸座標で表されるボクセル全体を入力できる。
論文 参考訳(メタデータ) (2021-10-12T06:56:48Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - Hypernetwork approach to generating point clouds [18.67883065951206]
私たちは、ポイントを3D形状にマップするように訓練された特定のニューラルネットワークの重みを返すハイパーネットワークを構築します。
推定した事前分布からポイントバイポイントサンプリングを用いて、特定の3次元形状を生成することができる。
ハイパーネットワークは、現実的な3次元形状を再構築するために訓練されたオートエンコーダアーキテクチャに基づいているため、ターゲットネットワーク重みは3次元形状の表面のパラメトリゼーションと見なすことができる。
論文 参考訳(メタデータ) (2020-02-10T11:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。