論文の概要: Real-Time LiDAR Point Cloud Densification for Low-Latency Spatial Data Transmission
- arxiv url: http://arxiv.org/abs/2601.01210v1
- Date: Sat, 03 Jan 2026 15:27:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.119082
- Title: Real-Time LiDAR Point Cloud Densification for Low-Latency Spatial Data Transmission
- Title(参考訳): 低遅延空間データ伝送のためのリアルタイムLiDAR点雲密度化
- Authors: Kazuhiko Murasaki, Shunsuke Konagai, Masakatsu Aoki, Taiga Yoshida, Ryuichi Tanida,
- Abstract要約: 本稿では,低レイテンシで高密度な3Dシーンを生成するための高速LiDAR点雲密度化法を提案する。
提案手法は,複数のLiDAR入力と高解像度カラー画像を組み合わせることで,畳み込みニューラルネットワークアーキテクチャによって実装された連立フィルタリング戦略を適用する。
実験により,提案手法は実時間(30fps)で高密度深度マップを作成できることを確認した。
- 参考スコア(独自算出の注目度): 0.6306978246081342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To realize low-latency spatial transmission system for immersive telepresence, there are two major problems: capturing dynamic 3D scene densely and processing them in real time. LiDAR sensors capture 3D in real time, but produce sparce point clouds. Therefore, this paper presents a high-speed LiDAR point cloud densification method to generate dense 3D scene with minimal latency, addressing the need for on-the-fly depth completion while maintaining real-time performance. Our approach combines multiple LiDAR inputs with high-resolution color images and applies a joint bilateral filtering strategy implemented through a convolutional neural network architecture. Experiments demonstrate that the proposed method produces dense depth maps at full HD resolution in real time (30 fps), which is over 15x faster than a recent training-based depth completion approach. The resulting dense point clouds exhibit accurate geometry without multiview inconsistencies or ghosting artifacts.
- Abstract(参考訳): 没入型テレプレゼンスのための低遅延空間伝送システムを実現するために,ダイナミックな3Dシーンを高密度にキャプチャし,リアルタイムに処理するという2つの大きな問題がある。
LiDARセンサーはリアルタイムで3Dをキャプチャするが、スパースポイントの雲を発生させる。
そこで本論文では,リアルタイム性能を維持しながら,高密度3次元シーンを最小遅延で生成する高速LiDAR点雲密度化手法を提案する。
提案手法は,複数のLiDAR入力と高解像度カラー画像を組み合わせることで,畳み込みニューラルネットワークアーキテクチャによって実装された連立フィルタリング戦略を適用する。
実験により,提案手法は実時間(30fps)で高密度深度マップを作成できることを確認した。
結果として生じる高密度点雲は、マルチビューの不整合やゴーストアーティファクトのない正確な幾何学を示している。
関連論文リスト
- TriDF: Triplane-Accelerated Density Fields for Few-Shot Remote Sensing Novel View Synthesis [22.72162881491581]
TriDFは、3つの入力ビューからの高速リモートセンシングNVSのための効率的なハイブリッド3D表現である。
本手法は,色と体積密度情報を分離し,計算負担を軽減するために独立にモデル化する。
複数のリモートセンシングシーンにわたる総合的な実験により、ハイブリッド表現が30倍の速度向上を達成することが示された。
論文 参考訳(メタデータ) (2025-03-17T16:25:39Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - Video super-resolution for single-photon LIDAR [0.0]
3D Time-of-Flight (ToF)イメージセンサーは、自動運転車、拡張現実(AR)、ロボット工学などの用途で広く利用されている。
本稿では,合成深度シーケンスを用いて3次元畳み込みニューラルネットワーク(CNN)を学習し,x4深度データを復調・アップスケーリングする。
GPUアクセラレーションでは、フレームは毎秒30フレーム以上で処理され、障害物回避に必要な低遅延イメージングに適している。
論文 参考訳(メタデータ) (2022-10-19T11:33:29Z) - A Low Memory Footprint Quantized Neural Network for Depth Completion of
Very Sparse Time-of-Flight Depth Maps [14.885472968649937]
室内3次元知覚のためのToFデータセットのシミュレーションを行った。
本モデルでは,入力前処理と注意深く調整したトレーニングにより,最適深度マップの品質を実現する。
また、重み付けとアクティベーションのための低メモリフットプリントを、混合精度量子化-トレーニング技術により達成する。
論文 参考訳(メタデータ) (2022-05-25T17:11:31Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z) - 3dDepthNet: Point Cloud Guided Depth Completion Network for Sparse Depth
and Single Color Image [42.13930269841654]
我々のネットワークは、正確かつ軽量な3次元から2次元の粗大な二重密度化設計を提供する。
KITTIデータセットの実験は、我々のネットワークがより効率的でありながら最先端の精度を実現していることを示している。
論文 参考訳(メタデータ) (2020-03-20T10:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。