論文の概要: Learning Dynamic Point Cloud Compression via Hierarchical Inter-frame
Block Matching
- arxiv url: http://arxiv.org/abs/2305.05356v1
- Date: Tue, 9 May 2023 11:44:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-10 19:44:39.203847
- Title: Learning Dynamic Point Cloud Compression via Hierarchical Inter-frame
Block Matching
- Title(参考訳): 階層型フレーム間ブロックマッチングによる動的ポイントクラウド圧縮の学習
- Authors: Shuting Xia, Tingyu Fan, Yiling Xu, Jenq-Neng Hwang, Zhu Li
- Abstract要約: 3Dダイナミックポイントクラウド(DPC)圧縮は、その時間的コンテキストのマイニングに依存している。
本稿では,階層的ブロックマッチングに基づく予測モジュールを用いた学習型DPC圧縮フレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.80653765524654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D dynamic point cloud (DPC) compression relies on mining its temporal
context, which faces significant challenges due to DPC's sparsity and
non-uniform structure. Existing methods are limited in capturing sufficient
temporal dependencies. Therefore, this paper proposes a learning-based DPC
compression framework via hierarchical block-matching-based inter-prediction
module to compensate and compress the DPC geometry in latent space.
Specifically, we propose a hierarchical motion estimation and motion
compensation (Hie-ME/MC) framework for flexible inter-prediction, which
dynamically selects the granularity of optical flow to encapsulate the motion
information accurately. To improve the motion estimation efficiency of the
proposed inter-prediction module, we further design a KNN-attention block
matching (KABM) network that determines the impact of potential corresponding
points based on the geometry and feature correlation. Finally, we compress the
residual and the multi-scale optical flow with a fully-factorized deep entropy
model. The experiment result on the MPEG-specified Owlii Dynamic Human Dynamic
Point Cloud (Owlii) dataset shows that our framework outperforms the previous
state-of-the-art methods and the MPEG standard V-PCC v18 in inter-frame
low-delay mode.
- Abstract(参考訳): 3次元ダイナミックポイントクラウド(DPC)圧縮は、その時間的コンテキストのマイニングに依存しており、DPCの空間性と非一様構造のために大きな課題に直面している。
既存の手法では十分な時間依存を捉えることが制限されている。
そこで本稿では,dpc形状を潜在空間で補償・圧縮するための階層型ブロックマッチング型予測モジュールによる学習ベースのdpc圧縮フレームワークを提案する。
具体的には,光流れの粒度を動的に選択し,正確な動き情報をカプセル化するフレキシブルな予測のための階層的運動推定・運動補償(hie-me/mc)フレームワークを提案する。
提案した予測モジュールの動作推定効率を向上させるために,幾何学的特徴相関と特徴相関に基づく電位対応点の影響を判定するKNN-attention block matching (KABM)ネットワークを設計する。
最後に, 残差と多スケール光流を, 完全分解深エントロピーモデルを用いて圧縮する。
実験の結果,MPEG仕様のOwlii Dynamic Human Dynamic Point Cloud (Owlii)データセットは,フレーム間低遅延モードにおいて,従来の最先端手法とMPEG標準V-PCC v18よりも優れた性能を示した。
関連論文リスト
- RPCANet++: Deep Interpretable Robust PCA for Sparse Object Segmentation [51.37553739930992]
RPCANet++は、RPCAの解釈可能性と効率的なディープアーキテクチャを融合したスパースオブジェクトセグメンテーションフレームワークである。
我々のアプローチは、緩やかなRPCAモデルを背景近似モジュール(BAM)、対象抽出モジュール(OEM)、画像復元モジュール(IRM)からなる構造化ネットワークに展開する。
さまざまなデータセットの実験では、RPCANet++がさまざまなイメージングシナリオの下で最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2025-08-06T08:19:37Z) - STQE: Spatial-Temporal Quality Enhancement for G-PCC Compressed Dynamic Point Clouds [51.313922535437726]
圧縮された動的点雲の視覚的品質を改善するために,空間的・時間的相関を利用した時空間属性品質向上(STQE)ネットワークを提案する。
私たちのコントリビューションには、参照属性情報を現在のフレーム形状に再マップして、フレーム間の正確なアライメントを実現する、リカラーベースのモーション補償モジュールが含まれています。
最新のG-PCCテストモデルに適用すると、STQEはデルタPSNRの0.855dB、0.682dB、0.828dBの改善を達成し、Bjontegaard Delta rate (BD-rate) は-25.2%、-31.6%、そして-。
論文 参考訳(メタデータ) (2025-07-23T14:03:54Z) - Motion-Aware Concept Alignment for Consistent Video Editing [57.08108545219043]
MoCA-Video (Motion-Aware Concept Alignment in Video) は、画像ドメインのセマンティックミキシングとビデオのギャップを埋めるトレーニング不要のフレームワークである。
生成されたビデオとユーザが提供した参照画像が与えられた後、MoCA-Videoは参照画像のセマンティックな特徴をビデオ内の特定のオブジェクトに注入する。
我々は、標準SSIM、画像レベルLPIPS、時間LPIPSを用いてMoCAの性能を評価し、新しいメトリクスCASS(Conceptual Alignment Shift Score)を導入し、ソースプロンプトと修正ビデオフレーム間の視覚的シフトの一貫性と有効性を評価する。
論文 参考訳(メタデータ) (2025-06-01T13:28:04Z) - Multi-Modality Driven LoRA for Adverse Condition Depth Estimation [61.525312117638116]
逆条件深さ推定のためのMulti-Modality Driven LoRA(MMD-LoRA)を提案する。
Prompt Driven Domain Alignment (PDDA) と Visual-Text Consistent Contrastive Learning (VTCCL) の2つのコアコンポーネントで構成されている。
nuScenesとOxford RobotCarデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-28T14:23:58Z) - U-Motion: Learned Point Cloud Video Compression with U-Structured Motion Estimation [9.528405963599997]
ポイントクラウドビデオ(PCV)は、多くの新興アプリケーションを持つダイナミックシーンの汎用的な3D表現である。
本稿では,PCV形状と属性の両方を学習ベースで圧縮するU-Motionを提案する。
論文 参考訳(メタデータ) (2024-11-21T07:17:01Z) - DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - On Exploring PDE Modeling for Point Cloud Video Representation Learning [48.02197741709501]
我々は、PointNetライクなエンコーダとPDE解決モジュールで構成されるMotion PointNetを紹介する。
私たちのMotion PointNetは、MSRAction-3Dデータセットで97.52%の精度を実現しています。
論文 参考訳(メタデータ) (2024-04-06T19:50:48Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Spatial-Temporal Transformer based Video Compression Framework [44.723459144708286]
本稿では,STT-VC(Spatial-Temporal Transformer based Video Compression)フレームワークを提案する。
動作推定と補償のためのオフセット推定のためのUformerベースのオフセット推定を備えたRelaxed Deformable Transformer (RDT)と、予測改善のためのマルチ参照フレームに基づくMulti-Granularity Prediction (MGP)モジュールと、時間空間的継手残留圧縮を効率的に行うSpatial Feature Distribution prior based Transformer (SFD-T)を含む。
実験の結果,VTMよりも13.5%のBD-Rateを節約できることがわかった。
論文 参考訳(メタデータ) (2023-09-21T09:23:13Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - D-DPCC: Deep Dynamic Point Cloud Compression via 3D Motion Prediction [18.897023700334458]
本稿では,新しい3次元スパース畳み込みを用いたDeep Dynamic Point Cloud Compressionネットワークを提案する。
DPC形状を3次元の運動推定と特徴空間での運動補償で補償し圧縮する。
実験結果から,提案したD-DPCCフレームワークは,映像ベースのポイントクラウド圧縮(V-PCC)v13に対して,平均76%のBDレート(Bjontegaard Delta Rate)を達成した。
論文 参考訳(メタデータ) (2022-05-02T18:10:45Z) - 4DAC: Learning Attribute Compression for Dynamic Point Clouds [37.447460254690135]
動的点雲の属性(例えば色)圧縮について検討し、4DACと呼ばれる学習ベースのフレームワークを提案する。
データ内の時間的冗長性を低減するため,まず深層ニューラルネットワークを用いた3次元動き推定と動き補償モジュールを構築した。
さらに,変換係数の確率分布を推定する条件付きエントロピーモデルを提案する。
論文 参考訳(メタデータ) (2022-04-25T15:30:06Z) - Spatiotemporal Entropy Model is All You Need for Learned Video
Compression [9.227865598115024]
生のピクセルフレーム(残像ではなく)を圧縮する枠組みを提案する。
エントロピーモデルはピクセルレベルではなく潜在空間における時間的冗長性を推定するために用いられる。
実験の結果,提案手法は最先端(SOTA)性能より優れていた。
論文 参考訳(メタデータ) (2021-04-13T10:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。