論文の概要: HyperCube: Implicit Field Representations of Voxelized 3D Models
- arxiv url: http://arxiv.org/abs/2110.05770v1
- Date: Tue, 12 Oct 2021 06:56:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 14:52:37.406363
- Title: HyperCube: Implicit Field Representations of Voxelized 3D Models
- Title(参考訳): HyperCube:Voxelized 3D Modelの暗黙の場表現
- Authors: Magdalena Proszewska, Marcin Mazur, Tomasz Trzci\'nski, Przemys{\l}aw
Spurek
- Abstract要約: 本稿では,3Dボクセルの直接処理を可能にするHyperCubeアーキテクチャを提案する。
ボクセル内から個々の3Dサンプルを処理するのではなく, 凸座標で表されるボクセル全体を入力できる。
- 参考スコア(独自算出の注目度): 18.868266675878996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently introduced implicit field representations offer an effective way of
generating 3D object shapes. They leverage implicit decoder trained to take a
3D point coordinate concatenated with a shape encoding and to output a value
which indicates whether the point is outside the shape or not. Although this
approach enables efficient rendering of visually plausible objects, it has two
significant limitations. First, it is based on a single neural network
dedicated for all objects from a training set which results in a cumbersome
training procedure and its application in real life. More importantly, the
implicit decoder takes only points sampled within voxels (and not the entire
voxels) which yields problems at the classification boundaries and results in
empty spaces within the rendered mesh.
To solve the above limitations, we introduce a new HyperCube architecture
based on interval arithmetic network, that enables direct processing of 3D
voxels, trained using a hypernetwork paradigm to enforce model convergence.
Instead of processing individual 3D samples from within a voxel, our approach
allows to input the entire voxel (3D cube) represented with its convex hull
coordinates, while the target network constructed by a hypernet assigns it to
an inside or outside category. As a result our HyperCube model outperforms the
competing approaches both in terms of training and inference efficiency, as
well as the final mesh quality.
- Abstract(参考訳): 最近導入された暗黙のフィールド表現は、3dオブジェクトの形状を生成する効果的な方法を提供する。
これらのデコーダは、形状符号化と連結した3次元点座標を学習し、その点が形状の外側にあるか否かを示す値を出力する。
このアプローチは視覚的に妥当なオブジェクトの効率的なレンダリングを可能にするが、2つの大きな制限がある。
まず、トレーニングセットからすべてのオブジェクトに専用の1つのニューラルネットワークをベースとしており、面倒なトレーニング手順と実生活におけるその応用をもたらす。
さらに重要なことは、暗黙のデコーダは(ボクセル全体ではなく)ボクセル内でサンプリングされた点のみを取り、分類境界の問題を生じさせ、その結果、レンダリングメッシュ内の空空間が生じることである。
上記の制約を解決するために,超ネットワークパラダイムを用いてトレーニングされた3次元ボクセルの直接処理を可能にする区間演算ネットワークに基づく新しいハイパーキューブアーキテクチャを導入する。
voxel内で個々の3dサンプルを処理する代わりに、このアプローチでは、凸殻座標で表されるvoxel(3d立方体)全体を入力し、ハイパーネットによって構築されたターゲットネットワークは、それを内部または外部のカテゴリに割り当てる。
その結果、HyperCubeモデルは、トレーニングと推論効率、最終的なメッシュ品質の両方において競合するアプローチよりも優れています。
関連論文リスト
- MeshXL: Neural Coordinate Field for Generative 3D Foundation Models [51.1972329762843]
本稿では,現代の大規模言語モデルを用いた3次元メッシュ生成のプロセスに対処する,事前学習型自己回帰モデルの生成ファミリを提案する。
MeshXLは高品質な3Dメッシュを生成することができ、さまざまなダウンストリームアプリケーションの基盤モデルとしても機能する。
論文 参考訳(メタデータ) (2024-05-31T14:35:35Z) - Oriented-grid Encoder for 3D Implicit Representations [10.02138130221506]
本論文は,3次元幾何エンコーダの3次元特性を明示的に利用した最初のものである。
提案手法は,従来の手法と比較して最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-02-09T19:28:13Z) - Model2Scene: Learning 3D Scene Representation via Contrastive
Language-CAD Models Pre-training [105.3421541518582]
現在成功している3次元シーン認識法は、大規模アノテートされた点雲に依存している。
CAD(Computer-Aided Design)モデルと言語から自由な3Dシーン表現を学習する新しいパラダイムであるModel2Sceneを提案する。
Model2Sceneは、平均mAPが46.08%、ScanNetとS3DISのデータセットが55.49%という、ラベルなしの優れた3Dオブジェクトのサリエント検出をもたらす。
論文 参考訳(メタデータ) (2023-09-29T03:51:26Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection [39.64891219500416]
3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-02T06:34:49Z) - A Fast Hybrid Cascade Network for Voxel-based 3D Object Classification [10.019858113123822]
ボクセルに基づく3次元オブジェクト分類のためのハイブリッドカスケードアーキテクチャを提案する。
提案手法では,精度と速度の両立が可能である。
論文 参考訳(メタデータ) (2020-11-09T15:58:33Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - HyperFlow: Representing 3D Objects as Surfaces [19.980044265074298]
本稿では,ハイパーネットを利用した新しい生成モデルを提案する。
我々は、競合するアプローチよりも質的な結果が得られる連続的なメッシュベースのオブジェクト表現を得る。
論文 参考訳(メタデータ) (2020-06-15T19:18:02Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z) - Hypernetwork approach to generating point clouds [18.67883065951206]
私たちは、ポイントを3D形状にマップするように訓練された特定のニューラルネットワークの重みを返すハイパーネットワークを構築します。
推定した事前分布からポイントバイポイントサンプリングを用いて、特定の3次元形状を生成することができる。
ハイパーネットワークは、現実的な3次元形状を再構築するために訓練されたオートエンコーダアーキテクチャに基づいているため、ターゲットネットワーク重みは3次元形状の表面のパラメトリゼーションと見なすことができる。
論文 参考訳(メタデータ) (2020-02-10T11:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。