論文の概要: ParaNet: Deep Regular Representation for 3D Point Clouds
- arxiv url: http://arxiv.org/abs/2012.03028v1
- Date: Sat, 5 Dec 2020 13:19:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 16:34:21.654888
- Title: ParaNet: Deep Regular Representation for 3D Point Clouds
- Title(参考訳): ParaNet: 3DポイントクラウドのためのDeep Regular Representation
- Authors: Qijian Zhang, Junhui Hou, Yue Qian, Juyong Zhang, Ying He
- Abstract要約: ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
- 参考スコア(独自算出の注目度): 62.81379889095186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although convolutional neural networks have achieved remarkable success in
analyzing 2D images/videos, it is still non-trivial to apply the well-developed
2D techniques in regular domains to the irregular 3D point cloud data. To
bridge this gap, we propose ParaNet, a novel end-to-end deep learning
framework, for representing 3D point clouds in a completely regular and nearly
lossless manner. To be specific, ParaNet converts an irregular 3D point cloud
into a regular 2D color image, named point geometry image (PGI), where each
pixel encodes the spatial coordinates of a point. In contrast to conventional
regular representation modalities based on multi-view projection and
voxelization, the proposed representation is differentiable and reversible.
Technically, ParaNet is composed of a surface embedding module, which
parameterizes 3D surface points onto a unit square, and a grid resampling
module, which resamples the embedded 2D manifold over regular dense grids. Note
that ParaNet is unsupervised, i.e., the training simply relies on
reference-free geometry constraints. The PGIs can be seamlessly coupled with a
task network established upon standard and mature techniques for 2D
images/videos to realize a specific task for 3D point clouds. We evaluate
ParaNet over shape classification and point cloud upsampling, in which our
solutions perform favorably against the existing state-of-the-art methods. We
believe such a paradigm will open up many possibilities to advance the progress
of deep learning-based point cloud processing and understanding.
- Abstract(参考訳): 畳み込みニューラルネットワークは2d画像/ビデオの解析に著しく成功したが、不規則な3dポイントクラウドデータに通常のドメインでよく開発された2d技術を適用することは、いまだに自明ではない。
このギャップを埋めるために,我々は3dポイントクラウドを完全規則的かつほぼ損失のない方法で表現する,新しいエンドツーエンドディープラーニングフレームワークparanetを提案する。
具体的に言うと、ParaNetは不規則な3D点雲を通常の2Dカラー画像(PGI)に変換し、各ピクセルが点の空間座標を符号化する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
技術的には、ParaNetは3次元曲面点を単位正方形にパラメータ化する曲面埋め込みモジュールと、通常の高密度グリッド上に埋め込まれた2次元多様体を再サンプリングするグリッド再サンプリングモジュールで構成されている。
ParaNetは教師なし、つまり、トレーニングは単に参照不要な幾何制約に依存する。
PGIは、標準および成熟した2D画像/ビデオのタスクネットワークとシームレスに結合して、3Dポイントクラウドの特定のタスクを実現することができる。
形状分類とポイント・クラウド・アップサンプリングによるパラネットの評価を行い,既存の最先端手法に対して有利にソリューションが機能することを示す。
このようなパラダイムは、ディープラーニングベースのポイントクラウド処理と理解の進歩を促進する多くの可能性を開くだろうと考えています。
関連論文リスト
- Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - Learning Multi-View Aggregation In the Wild for Large-Scale 3D Semantic
Segmentation [3.5939555573102853]
近年の3次元セマンティックセグメンテーションの研究は、各モータリティを専用ネットワークで処理することで、画像と点雲の相乗効果を活用することを提案する。
任意の位置で撮影された画像から特徴をマージするために,3Dポイントの視聴条件を利用したエンドツーエンドのトレーニング可能な多視点アグリゲーションモデルを提案する。
本手法は,標準的な2Dネットワークと3Dネットワークを組み合わせることで,カラー化された点群とハイブリッドな2D/3Dネットワーク上での3Dモデルの性能を向上する。
論文 参考訳(メタデータ) (2022-04-15T17:10:48Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Unsupervised Learning of Fine Structure Generation for 3D Point Clouds
by 2D Projection Matching [66.98712589559028]
微細な構造を持つ3次元点雲生成のための教師なしアプローチを提案する。
本手法は2次元シルエット画像から異なる解像度で微細な3次元構造を復元することができる。
論文 参考訳(メタデータ) (2021-08-08T22:15:31Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。