論文の概要: PointINet: Point Cloud Frame Interpolation Network
- arxiv url: http://arxiv.org/abs/2012.10066v1
- Date: Fri, 18 Dec 2020 06:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 03:39:02.377765
- Title: PointINet: Point Cloud Frame Interpolation Network
- Title(参考訳): PointINet: Point Cloud Frame Interpolation Network
- Authors: Fan Lu and Guang Chen and Sanqing Qu and Zhijun Li and Yinlong Liu and
Alois Knoll
- Abstract要約: Point Cloud Frame Interpolationは、2つの連続したポイントクラウドフレームを付与し、中間フレームを生成します。
提案手法に基づいて,低フレームレート点のクラウドストリームを高フレームレートにアップサンプリングすることができる。
そこで本研究では,2つの点雲を同時に考慮した新しい学習型点融合モジュールを提案する。
- 参考スコア(独自算出の注目度): 9.626246913697427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR point cloud streams are usually sparse in time dimension, which is
limited by hardware performance. Generally, the frame rates of mechanical LiDAR
sensors are 10 to 20 Hz, which is much lower than other commonly used sensors
like cameras. To overcome the temporal limitations of LiDAR sensors, a novel
task named Point Cloud Frame Interpolation is studied in this paper. Given two
consecutive point cloud frames, Point Cloud Frame Interpolation aims to
generate intermediate frame(s) between them. To achieve that, we propose a
novel framework, namely Point Cloud Frame Interpolation Network (PointINet).
Based on the proposed method, the low frame rate point cloud streams can be
upsampled to higher frame rates. We start by estimating bi-directional 3D scene
flow between the two point clouds and then warp them to the given time step
based on the 3D scene flow. To fuse the two warped frames and generate
intermediate point cloud(s), we propose a novel learning-based points fusion
module, which simultaneously takes two warped point clouds into consideration.
We design both quantitative and qualitative experiments to evaluate the
performance of the point cloud frame interpolation method and extensive
experiments on two large scale outdoor LiDAR datasets demonstrate the
effectiveness of the proposed PointINet. Our code is available at
https://github.com/ispc-lab/PointINet.git.
- Abstract(参考訳): lidar point cloud streamsは通常、ハードウェアのパフォーマンスによって制限された時間次元でスパースする。
一般的に、機械式LiDARセンサーのフレームレートは10Hzから20Hzであり、カメラなどの一般的なセンサーよりもはるかに低い。
本稿では,LiDARセンサの時間的制限を克服するために,Point Cloud Frame Interpolationという新しいタスクについて述べる。
2つの連続するクラウドフレームを与えられたポイントクラウドフレーム補間は、それらの中間フレームを生成することを目的としている。
そこで我々は,pointinet(point cloud frame interpolation network)という新しいフレームワークを提案する。
提案手法により,低フレームレートのクラウドストリームを高いフレームレートにアップサンプリングすることができる。
まず,2点の雲間の双方向3次元シーンフローを推定し,その3次元シーンフローに基づいて所定の時間ステップにワープする。
2つの重ね合せフレームを融合させ,中間点雲を生成するため,2つの重ね合せ点雲を同時に考慮した,新しい学習ベースの点融合モジュールを提案する。
我々は,2つの大規模屋外LiDARデータセットにおける点雲フレーム補間法の性能を評価するための定量的および定性的な実験を設計し,提案したPointINetの有効性を実証した。
私たちのコードはhttps://github.com/ispc-lab/pointinet.gitで利用可能です。
関連論文リスト
- P2P-Bridge: Diffusion Bridges for 3D Point Cloud Denoising [81.92854168911704]
私たちは、Diffusion Schr"odingerブリッジをポイントクラウドに適応させる新しいフレームワークを通じて、ポイントクラウドを飾るタスクに取り組みます。
オブジェクトデータセットの実験では、P2P-Bridgeは既存のメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-08-29T08:00:07Z) - FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds [100.03877236181546]
PolarMixは、シンプルで汎用的なポイントクラウド拡張技術である。
様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしのドメイン適応にも適しています。
論文 参考訳(メタデータ) (2022-07-30T13:52:19Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - Learning Scene Dynamics from Point Cloud Sequences [8.163697683448811]
本稿では,一列に1組の点雲に対して3次元のシーンフローを予測することを目的とした,時間的シーンフロー推定(SSFE)という新たな問題を提案する。
本稿では,SPCM-Netアーキテクチャを導入し,近隣の点群間のマルチスケール相関を計算してこの問題を解決する。
我々は,この手法を逐次点雲予測のために効果的に修正できることを実証した。
論文 参考訳(メタデータ) (2021-11-16T19:52:46Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z) - RAI-Net: Range-Adaptive LiDAR Point Cloud Frame Interpolation Network [5.225160072036824]
捕捉されたフレーム間の中間フレームを合成するLiDARポイントクラウドフレームは、多くのアプリケーションにおいて重要な問題となっている。
本稿では,CNNとの中間表現として範囲画像(RI)を利用してフレーム処理を行う,新しいLiDARポイントクラウド光フレーム法を提案する。
提案手法は,最新の映像フレーム方式よりも知覚的品質の優れたフレームを連続的に実現している。
論文 参考訳(メタデータ) (2021-06-01T13:59:08Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。