論文の概要: AIR-Nets: An Attention-Based Framework for Locally Conditioned Implicit
Representations
- arxiv url: http://arxiv.org/abs/2110.11860v1
- Date: Fri, 22 Oct 2021 15:48:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 13:16:39.233795
- Title: AIR-Nets: An Attention-Based Framework for Locally Conditioned Implicit
Representations
- Title(参考訳): AIR-Nets: 局所条件付き命令表現のための注意ベースのフレームワーク
- Authors: Simon Giebenhain, Bastian Goldl\"ucke
- Abstract要約: Attentive Implicit Representation Networks (AIR-Nets) は、ポイントクラウドからの3D再構成に有効なアーキテクチャである。
我々のモデルは、暗黙の関数を局所的に記述する最初のグリッドフリーエンコーダベースのアプローチである。
我々のモデルはゼロショット設定でFAUSTデータセットによく当てはまる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Attentive Implicit Representation Networks (AIR-Nets),
a simple, but highly effective architecture for 3D reconstruction from point
clouds. Since representing 3D shapes in a local and modular fashion increases
generalization and reconstruction quality, AIR-Nets encode an input point cloud
into a set of local latent vectors anchored in 3D space, which locally describe
the object's geometry, as well as a global latent description, enforcing global
consistency. Our model is the first grid-free, encoder-based approach that
locally describes an implicit function. The vector attention mechanism from
[Zhao et al. 2020] serves as main point cloud processing module, and allows for
permutation invariance and translation equivariance. When queried with a 3D
coordinate, our decoder gathers information from the global and nearby local
latent vectors in order to predict an occupancy value. Experiments on the
ShapeNet dataset show that AIR-Nets significantly outperform previous
state-of-the-art encoder-based, implicit shape learning methods and especially
dominate in the sparse setting. Furthermore, our model generalizes well to the
FAUST dataset in a zero-shot setting. Finally, since AIR-Nets use a sparse
latent representation and follow a simple operating scheme, the model offers
several exiting avenues for future work. Our code is available at
https://github.com/SimonGiebenhain/AIR-Nets.
- Abstract(参考訳): 本稿では,点雲からの3次元再構成のための簡易かつ高効率なアーキテクチャであるAIR-Netsを紹介する。
局所的かつモジュラーな方法で3d形状を表現すると一般化と再構成の品質が向上するので、エアネットは入力点クラウドを3d空間に固定された局所的潜在ベクトルの集合に符号化し、局所的にオブジェクトの幾何学を記述する。
我々のモデルは、暗黙の関数を局所的に記述する最初のグリッドフリーエンコーダベースのアプローチである。
zhao et al. 2020]のベクターアテンションメカニズムは、メインポイントのクラウドプロセッシングモジュールとして機能し、置換不変性と変換等価性を可能にする。
3次元座標を問合せすると、我々のデコーダは、占有値を予測するために、大域および近辺の局所的潜在ベクトルから情報を収集する。
ShapeNetデータセットの実験では、AIR-Netsは従来の最先端エンコーダベースの暗黙の形状学習手法よりも大幅に優れており、特にスパース設定において優位である。
さらに,本モデルはゼロショット設定でFAUSTデータセットによく一般化する。
最後に、AIR-Netsはスパース遅延表現を使用し、単純なオペレーションスキームに従うので、このモデルは将来の作業にいくつかの出口を提供する。
私たちのコードはhttps://github.com/SimonGiebenhain/AIR-Netsで利用可能です。
関連論文リスト
- Dynamic Clustering Transformer Network for Point Cloud Segmentation [23.149220817575195]
動的クラスタリングトランスネットワーク(DCTNet)と呼ばれる新しい3Dポイントクラウド表現ネットワークを提案する。
エンコーダ-デコーダアーキテクチャがあり、ローカルとグローバルの両方の機能学習が可能である。
提案手法は,オブジェクトベースデータセット(ShapeNet),都市ナビゲーションデータセット(Toronto-3D),マルチスペクトルLiDARデータセットを用いて評価した。
論文 参考訳(メタデータ) (2023-05-30T01:11:05Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - SE(3)-Equivariant Attention Networks for Shape Reconstruction in
Function Space [50.14426188851305]
本稿では,第1のSE(3)-equivariant coordinate-based networkを提案する。
入力を正規格子に整列させる従来の形状再構成法とは対照的に、不規則で無向な点雲を直接操作する。
提案手法は,従来のSO(3)-equivariant法,およびSO(3)-augmented dataで訓練された非equivariant法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:15Z) - ABD-Net: Attention Based Decomposition Network for 3D Point Cloud
Decomposition [1.3999481573773074]
本稿では,ポイントクラウド分解のためのアテンションベース分解ネットワーク(ABD-Net)を提案する。
点雲の原始形状に基づく注意特徴を用いた3次元オブジェクト分類の性能向上を示す。
論文 参考訳(メタデータ) (2021-07-09T08:39:30Z) - ODFNet: Using orientation distribution functions to characterize 3D
point clouds [0.0]
点まわりの点配向分布を利用して、点群の表現力のある局所近傍表現を得ます。
新しい ODFNet モデルは ModelNet40 と ScanObjectNN データセットのオブジェクト分類における最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-12-08T19:54:20Z) - SpinNet: Learning a General Surface Descriptor for 3D Point Cloud
Registration [57.28608414782315]
ローカルな特徴を抽出するために、SpinNetと呼ばれる新しい、概念的にはシンプルで、ニューラルなアーキテクチャを導入する。
屋内と屋外の両方の実験では、SpinNetが既存の最先端技術より優れていることが示されている。
論文 参考訳(メタデータ) (2020-11-24T15:00:56Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。