論文の概要: Rotation Transformation Network: Learning View-Invariant Point Cloud for
Classification and Segmentation
- arxiv url: http://arxiv.org/abs/2107.03105v1
- Date: Wed, 7 Jul 2021 09:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 14:04:13.806920
- Title: Rotation Transformation Network: Learning View-Invariant Point Cloud for
Classification and Segmentation
- Title(参考訳): 回転変換ネットワーク: 分類とセグメンテーションのための視点不変点クラウドの学習
- Authors: Shuang Deng, Bo Liu, Qiulei Dong, and Zhanyi Hu
- Abstract要約: 本稿では,空間操作モジュールについて考察する。
オブジェクトの回転度(RDF)が小さいほど、これらのオブジェクトはより容易にこれらのDNNによって処理される。
以上の2つの課題により,入力3DオブジェクトのRDFを0。
- 参考スコア(独自算出の注目度): 12.047598757194871
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many recent works show that a spatial manipulation module could boost the
performances of deep neural networks (DNNs) for 3D point cloud analysis. In
this paper, we aim to provide an insight into spatial manipulation modules.
Firstly, we find that the smaller the rotational degree of freedom (RDF) of
objects is, the more easily these objects are handled by these DNNs. Then, we
investigate the effect of the popular T-Net module and find that it could not
reduce the RDF of objects. Motivated by the above two issues, we propose a
rotation transformation network for point cloud analysis, called RTN, which
could reduce the RDF of input 3D objects to 0. The RTN could be seamlessly
inserted into many existing DNNs for point cloud analysis. Extensive
experimental results on 3D point cloud classification and segmentation tasks
demonstrate that the proposed RTN could improve the performances of several
state-of-the-art methods significantly.
- Abstract(参考訳): 最近の多くの研究は、空間操作モジュールが3Dポイントクラウド分析のためのディープニューラルネットワーク(DNN)の性能を高めることを示している。
本稿では,空間操作モジュールに関する知見を提供することを目的としている。
まず、オブジェクトの回転度(RDF)が小さいほど、これらのオブジェクトはより容易にこれらのDNNによって処理される。
そこで,一般的なT-Netモジュールの効果を調べた結果,オブジェクトのRDFを低減できないことがわかった。
以上の2つの課題に動機づけられ,rtnと呼ばれる点クラウド解析のための回転変換ネットワークを提案し,入力3dオブジェクトのrdfを0。
RTNは、ポイントクラウド分析のために、多くの既存のDNNにシームレスに挿入できる。
3dポイントクラウド分類とセグメンテーションタスクに関する広範囲な実験結果から,rtnは最先端手法の性能を著しく向上できることが示された。
関連論文リスト
- LION: Linear Group RNN for 3D Object Detection in Point Clouds [85.97541374148508]
本稿では,LInear grOup RNN上に構築されたウィンドウベースフレームワークを提案する。
3次元空間特徴記述器を導入し,それを線形群 RNN 演算子に統合して空間特徴を増強する。
高分散点雲の課題にさらに対処するため,前景の特徴を密度化するための3次元ボクセル生成戦略を提案する。
論文 参考訳(メタデータ) (2024-07-25T17:50:32Z) - Nearest Neighbors Meet Deep Neural Networks for Point Cloud Analysis [14.844183458784235]
我々は,空間近傍適応(SN-Adapter)と呼ばれるパラメータの再設計や余分なパラメータを伴わずに,既存のディープニューラルネットワークを強化する方法を提案する。
訓練された3Dネットワーク上に構築された学習符号化機能を利用して,学習データセットの特徴を抽出し,それらを空間知識として要約する。
テストポイントクラウドでは、SN-Adapterは、事前構築された空間プロトタイプからk隣人(k-NN)を検索し、k-NN予測を元の3Dネットワークのプロトタイプと線形補間する。
論文 参考訳(メタデータ) (2023-03-01T17:57:09Z) - Spatial Pruned Sparse Convolution for Efficient 3D Object Detection [41.62839541489369]
3Dシーンは多数のバックグラウンドポイントによって支配されており、主に前景オブジェクトにフォーカスする必要がある検出タスクには冗長である。
本稿では,既存の3D CNNの主要なコンポーネントを分析し,データの冗長性を無視し,さらにダウンサンプリングプロセスでそれを増幅することにより,余分な計算オーバーヘッドと不要な計算オーバーヘッドを発生させる。
SPS-ConvとSPSS-ConvとSPRSの2つの変種を含む新しい畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:19:06Z) - Point Cloud Semantic Segmentation using Multi Scale Sparse Convolution
Neural Network [0.0]
本稿では,マルチスケール超スパース畳み込みに基づく特徴抽出モジュールと,チャネルアテンションに基づく特徴選択モジュールを提案する。
マルチスケールのスパース畳み込みを導入することで、ネットワークは異なるサイズの畳み込みカーネルに基づいてよりリッチな特徴情報をキャプチャできる。
論文 参考訳(メタデータ) (2022-05-03T15:01:20Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Learning Rotation-Invariant Representations of Point Clouds Using
Aligned Edge Convolutional Neural Networks [29.3830445533532]
ポイントクラウド分析は、シーンの深さを正確に測定できる3Dセンサーの開発によって、関心が高まる分野である。
点群解析に深層学習技術を適用することは、これらの手法が見えない回転に一般化できないため、簡単ではありません。
この制限に対処するには、通常、トレーニングデータを強化する必要があり、これは余分な計算につながる可能性があり、より大きなモデルの複雑さを必要とする。
本稿では,局所参照フレーム(LRF)に対する点群の特徴表現を学習する,Aligned Edge Convolutional Neural Network(AECNN)と呼ばれる新しいニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-01-02T17:36:00Z) - Recalibration of Neural Networks for Point Cloud Analysis [3.7814216736076434]
3Dポイントクラウドのためのディープニューラルネットワーク上での再校正モジュールを導入する。
提案モジュールを3次元ポイントクラウド解析のための3つの最先端ネットワークに組み込むことで,提案モジュールのメリットと汎用性を実証する。
第2の実験では,アルツハイマー病の診断における再校正ブロックの利点について検討した。
論文 参考訳(メタデータ) (2020-11-25T17:14:34Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。