論文の概要: D-DPCC: Deep Dynamic Point Cloud Compression via 3D Motion Prediction
- arxiv url: http://arxiv.org/abs/2205.01135v1
- Date: Mon, 2 May 2022 18:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 13:37:17.368031
- Title: D-DPCC: Deep Dynamic Point Cloud Compression via 3D Motion Prediction
- Title(参考訳): D-DPCC:3次元運動予測による深部ダイナミックポイント雲圧縮
- Authors: Tingyu Fan, Linyao Gao, Yiling Xu, Zhu Li and Dong Wang
- Abstract要約: 本稿では,新しい3次元スパース畳み込みを用いたDeep Dynamic Point Cloud Compressionネットワークを提案する。
DPC形状を3次元の運動推定と特徴空間での運動補償で補償し圧縮する。
実験結果から,提案したD-DPCCフレームワークは,映像ベースのポイントクラウド圧縮(V-PCC)v13に対して,平均76%のBDレート(Bjontegaard Delta Rate)を達成した。
- 参考スコア(独自算出の注目度): 18.897023700334458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The non-uniformly distributed nature of the 3D dynamic point cloud (DPC)
brings significant challenges to its high-efficient inter-frame compression.
This paper proposes a novel 3D sparse convolution-based Deep Dynamic Point
Cloud Compression (D-DPCC) network to compensate and compress the DPC geometry
with 3D motion estimation and motion compensation in the feature space. In the
proposed D-DPCC network, we design a {\it Multi-scale Motion Fusion} (MMF)
module to accurately estimate the 3D optical flow between the feature
representations of adjacent point cloud frames. Specifically, we utilize a 3D
sparse convolution-based encoder to obtain the latent representation for motion
estimation in the feature space and introduce the proposed MMF module for fused
3D motion embedding. Besides, for motion compensation, we propose a 3D {\it
Adaptively Weighted Interpolation} (3DAWI) algorithm with a penalty coefficient
to adaptively decrease the impact of distant neighbors. We compress the motion
embedding and the residual with a lossy autoencoder-based network. To our
knowledge, this paper is the first work proposing an end-to-end deep dynamic
point cloud compression framework. The experimental result shows that the
proposed D-DPCC framework achieves an average 76\% BD-Rate (Bjontegaard Delta
Rate) gains against state-of-the-art Video-based Point Cloud Compression
(V-PCC) v13 in inter mode.
- Abstract(参考訳): 3Dダイナミックポイントクラウド(DPC)の非一様分散性は、その高効率なフレーム間圧縮に重大な課題をもたらす。
本稿では,DPC幾何を3次元運動推定と運動補償で補償・圧縮する3次元スパース畳み込みに基づくD-DPCC(Deep Dynamic Point Cloud Compression)ネットワークを提案する。
提案するD-DPCCネットワークでは,隣接する点雲フレームの特徴表現間の3次元光学的流れを正確に推定するMMFモジュールを設計する。
具体的には、3次元スパース畳み込みに基づくエンコーダを用いて、特徴空間における動き推定の潜時表現を求め、融合した3次元モーション埋め込みのためのMMFモジュールを提案する。
また, 動き補償のために, ペナルティ係数を持つ3D {\displaystyle Adaptively Weighted Interpolation} (3DAWI) アルゴリズムを提案する。
動作埋め込みと残差を、損失のあるオートエンコーダベースのネットワークで圧縮する。
本稿では,エンド・ツー・エンドのディープ・ダイナミック・ポイント・クラウド圧縮フレームワークを提案する最初の研究である。
実験の結果,提案したD-DPCCフレームワークは,映像ベースポイントクラウド圧縮(V-PCC)v13に対して,平均76 %のBD-Rate(Bjontegaard Delta Rate)が得られることがわかった。
関連論文リスト
- U-Motion: Learned Point Cloud Video Compression with U-Structured Motion Estimation [9.528405963599997]
ポイントクラウドビデオ(PCV)は、多くの新興アプリケーションを持つダイナミックシーンの汎用的な3D表現である。
本稿では,PCV形状と属性の両方を学習ベースで圧縮するU-Motionを提案する。
論文 参考訳(メタデータ) (2024-11-21T07:17:01Z) - GaussianAnything: Interactive Point Cloud Latent Diffusion for 3D Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,シングル/マルチビュー画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - 4DSR-GCN: 4D Video Point Cloud Upsampling using Graph Convolutional
Networks [29.615723135027096]
圧縮後の3次元ビデオポイント雲のアップスケーリングと復元のための新しいソリューションを提案する。
我々のモデルは、動的エッジ畳み込みとグラフ注意ネットワークを組み合わせた、特別に設計されたグラフ畳み込みネットワーク(GCN)で構成されている。
論文 参考訳(メタデータ) (2023-06-01T18:43:16Z) - Learning Dynamic Point Cloud Compression via Hierarchical Inter-frame
Block Matching [35.80653765524654]
3Dダイナミックポイントクラウド(DPC)圧縮は、その時間的コンテキストのマイニングに依存している。
本稿では,階層的ブロックマッチングに基づく予測モジュールを用いた学習型DPC圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T11:44:13Z) - 4DAC: Learning Attribute Compression for Dynamic Point Clouds [37.447460254690135]
動的点雲の属性(例えば色)圧縮について検討し、4DACと呼ばれる学習ベースのフレームワークを提案する。
データ内の時間的冗長性を低減するため,まず深層ニューラルネットワークを用いた3次元動き推定と動き補償モジュールを構築した。
さらに,変換係数の確率分布を推定する条件付きエントロピーモデルを提案する。
論文 参考訳(メタデータ) (2022-04-25T15:30:06Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - DeepCompress: Efficient Point Cloud Geometry Compression [1.808877001896346]
本稿では,ポイントクラウド圧縮のためのより効率的なディープラーニングベースのエンコーダアーキテクチャを提案する。
CENIC(Efficient Neural Image Compression)から学習した活性化関数を組み込むことで,効率と性能が劇的に向上することを示す。
提案手法は,BjontegardデルタレートとPSNR値において,ベースラインアプローチよりも小さなマージンで優れていた。
論文 参考訳(メタデータ) (2021-06-02T23:18:11Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。