論文の概要: PointINet: Point Cloud Frame Interpolation Network
- arxiv url: http://arxiv.org/abs/2012.10066v1
- Date: Fri, 18 Dec 2020 06:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 03:39:02.377765
- Title: PointINet: Point Cloud Frame Interpolation Network
- Title(参考訳): PointINet: Point Cloud Frame Interpolation Network
- Authors: Fan Lu and Guang Chen and Sanqing Qu and Zhijun Li and Yinlong Liu and
Alois Knoll
- Abstract要約: Point Cloud Frame Interpolationは、2つの連続したポイントクラウドフレームを付与し、中間フレームを生成します。
提案手法に基づいて,低フレームレート点のクラウドストリームを高フレームレートにアップサンプリングすることができる。
そこで本研究では,2つの点雲を同時に考慮した新しい学習型点融合モジュールを提案する。
- 参考スコア(独自算出の注目度): 9.626246913697427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR point cloud streams are usually sparse in time dimension, which is
limited by hardware performance. Generally, the frame rates of mechanical LiDAR
sensors are 10 to 20 Hz, which is much lower than other commonly used sensors
like cameras. To overcome the temporal limitations of LiDAR sensors, a novel
task named Point Cloud Frame Interpolation is studied in this paper. Given two
consecutive point cloud frames, Point Cloud Frame Interpolation aims to
generate intermediate frame(s) between them. To achieve that, we propose a
novel framework, namely Point Cloud Frame Interpolation Network (PointINet).
Based on the proposed method, the low frame rate point cloud streams can be
upsampled to higher frame rates. We start by estimating bi-directional 3D scene
flow between the two point clouds and then warp them to the given time step
based on the 3D scene flow. To fuse the two warped frames and generate
intermediate point cloud(s), we propose a novel learning-based points fusion
module, which simultaneously takes two warped point clouds into consideration.
We design both quantitative and qualitative experiments to evaluate the
performance of the point cloud frame interpolation method and extensive
experiments on two large scale outdoor LiDAR datasets demonstrate the
effectiveness of the proposed PointINet. Our code is available at
https://github.com/ispc-lab/PointINet.git.
- Abstract(参考訳): lidar point cloud streamsは通常、ハードウェアのパフォーマンスによって制限された時間次元でスパースする。
一般的に、機械式LiDARセンサーのフレームレートは10Hzから20Hzであり、カメラなどの一般的なセンサーよりもはるかに低い。
本稿では,LiDARセンサの時間的制限を克服するために,Point Cloud Frame Interpolationという新しいタスクについて述べる。
2つの連続するクラウドフレームを与えられたポイントクラウドフレーム補間は、それらの中間フレームを生成することを目的としている。
そこで我々は,pointinet(point cloud frame interpolation network)という新しいフレームワークを提案する。
提案手法により,低フレームレートのクラウドストリームを高いフレームレートにアップサンプリングすることができる。
まず,2点の雲間の双方向3次元シーンフローを推定し,その3次元シーンフローに基づいて所定の時間ステップにワープする。
2つの重ね合せフレームを融合させ,中間点雲を生成するため,2つの重ね合せ点雲を同時に考慮した,新しい学習ベースの点融合モジュールを提案する。
我々は,2つの大規模屋外LiDARデータセットにおける点雲フレーム補間法の性能を評価するための定量的および定性的な実験を設計し,提案したPointINetの有効性を実証した。
私たちのコードはhttps://github.com/ispc-lab/pointinet.gitで利用可能です。
関連論文リスト
- Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z) - Temporal Point Cloud Completion with Pose Disturbance [32.536545112645335]
限られた翻訳と回転によるポーズ乱れを伴うスパース入力から完全点雲を提供する。
また、時間情報を用いて完了モデルを強化し、入力シーケンスで出力を精算する。
我々のフレームワークは、時間的情報を利用して、限られた変換で時間的一貫性を確保する最初のフレームワークです。
論文 参考訳(メタデータ) (2022-02-07T11:41:12Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Learning Scene Dynamics from Point Cloud Sequences [8.163697683448811]
本稿では,一列に1組の点雲に対して3次元のシーンフローを予測することを目的とした,時間的シーンフロー推定(SSFE)という新たな問題を提案する。
本稿では,SPCM-Netアーキテクチャを導入し,近隣の点群間のマルチスケール相関を計算してこの問題を解決する。
我々は,この手法を逐次点雲予測のために効果的に修正できることを実証した。
論文 参考訳(メタデータ) (2021-11-16T19:52:46Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z) - RAI-Net: Range-Adaptive LiDAR Point Cloud Frame Interpolation Network [5.225160072036824]
捕捉されたフレーム間の中間フレームを合成するLiDARポイントクラウドフレームは、多くのアプリケーションにおいて重要な問題となっている。
本稿では,CNNとの中間表現として範囲画像(RI)を利用してフレーム処理を行う,新しいLiDARポイントクラウド光フレーム法を提案する。
提案手法は,最新の映像フレーム方式よりも知覚的品質の優れたフレームを連続的に実現している。
論文 参考訳(メタデータ) (2021-06-01T13:59:08Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。