論文の概要: Learned Nonlinear Predictor for Critically Sampled 3D Point Cloud
Attribute Compression
- arxiv url: http://arxiv.org/abs/2311.13539v1
- Date: Wed, 22 Nov 2023 17:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 14:13:02.310426
- Title: Learned Nonlinear Predictor for Critically Sampled 3D Point Cloud
Attribute Compression
- Title(参考訳): 臨界サンプリング3次元点クラウド属性圧縮のための学習型非線形予測器
- Authors: Tam Thuc Do, Philip A. Chou, and Gene Cheung
- Abstract要約: 我々はデコーダによる3次元点雲圧縮について検討した。
本稿では,$f_l*$をレベル$l+1$,$f_l*$$l$,$G_l*$のエンコーディングを$p=1$で予測する。
- 参考スコア(独自算出の注目度): 24.001318485207207
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study 3D point cloud attribute compression via a volumetric approach:
assuming point cloud geometry is known at both encoder and decoder, parameters
$\theta$ of a continuous attribute function $f: \mathbb{R}^3 \mapsto
\mathbb{R}$ are quantized to $\hat{\theta}$ and encoded, so that discrete
samples $f_{\hat{\theta}}(\mathbf{x}_i)$ can be recovered at known 3D points
$\mathbf{x}_i \in \mathbb{R}^3$ at the decoder. Specifically, we consider a
nested sequences of function subspaces $\mathcal{F}^{(p)}_{l_0} \subseteq
\cdots \subseteq \mathcal{F}^{(p)}_L$, where $\mathcal{F}_l^{(p)}$ is a family
of functions spanned by B-spline basis functions of order $p$, $f_l^*$ is the
projection of $f$ on $\mathcal{F}_l^{(p)}$ and encoded as low-pass coefficients
$F_l^*$, and $g_l^*$ is the residual function in orthogonal subspace
$\mathcal{G}_l^{(p)}$ (where $\mathcal{G}_l^{(p)} \oplus \mathcal{F}_l^{(p)} =
\mathcal{F}_{l+1}^{(p)}$) and encoded as high-pass coefficients $G_l^*$. In
this paper, to improve coding performance over [1], we study predicting
$f_{l+1}^*$ at level $l+1$ given $f_l^*$ at level $l$ and encoding of $G_l^*$
for the $p=1$ case (RAHT($1$)). For the prediction, we formalize RAHT(1) linear
prediction in MPEG-PCC in a theoretical framework, and propose a new nonlinear
predictor using a polynomial of bilateral filter. We derive equations to
efficiently compute the critically sampled high-pass coefficients $G_l^*$
amenable to encoding. We optimize parameters in our resulting feed-forward
network on a large training set of point clouds by minimizing a rate-distortion
Lagrangian. Experimental results show that our improved framework outperformed
the MPEG G-PCC predictor by $11$ to $12\%$ in bit rate reduction.
- Abstract(参考訳): 点クラウド幾何学がエンコーダとデコーダの両方で知られていると仮定すると、パラメータ $\theta$ of a continuous attribute function $f: \mathbb{R}^3 \mapsto \mathbb{R}$ is Quantized to $\hat{\theta}$ and encoded となり、離散サンプル $f_{\hat{\theta}}(\mathbf{x}_i)$ は既知の3Dポイント $\mathbf{x}_i \in \mathbb{R}^3$ で復元できる。
Specifically, we consider a nested sequences of function subspaces $\mathcal{F}^{(p)}_{l_0} \subseteq \cdots \subseteq \mathcal{F}^{(p)}_L$, where $\mathcal{F}_l^{(p)}$ is a family of functions spanned by B-spline basis functions of order $p$, $f_l^*$ is the projection of $f$ on $\mathcal{F}_l^{(p)}$ and encoded as low-pass coefficients $F_l^*$, and $g_l^*$ is the residual function in orthogonal subspace $\mathcal{G}_l^{(p)}$ (where $\mathcal{G}_l^{(p)} \oplus \mathcal{F}_l^{(p)} = \mathcal{F}_{l+1}^{(p)}$) and encoded as high-pass coefficients $G_l^*$.
本稿では, [1] に対する符号化性能を向上させるために, レベル $l+1 で $f_{l+1}^*$ を, レベル $l$ で$f_l^*$ を, レベル $p=1 のケースで $g_l^*$ をエンコーディングする (raht($$$))。
本稿では,MPEG-PCCにおけるRAHT(1)線形予測を理論的枠組みで定式化し,二元フィルタの多項式を用いた非線形予測器を提案する。
臨界サンプリングされたハイパス係数$G_l^*$のエンコーディングを効率的に計算する方程式を導出する。
速度歪みラグランジアンを最小化することにより、大量の点雲のトレーニングセット上のフィードフォワードネットワークのパラメータを最適化する。
実験結果から,MPEG G-PCC予測器のビットレート削減効果は,MPEG G-PCC予測器よりも11~12\%向上した。
関連論文リスト
- Sample and Computationally Efficient Robust Learning of Gaussian Single-Index Models [37.42736399673992]
シングルインデックスモデル (SIM) は $sigma(mathbfwast cdot mathbfx)$ という形式の関数であり、$sigma: mathbbR to mathbbR$ は既知のリンク関数であり、$mathbfwast$ は隠れ単位ベクトルである。
適切な学習者が$L2$-error of $O(mathrmOPT)+epsilon$。
論文 参考訳(メタデータ) (2024-11-08T17:10:38Z) - Optimal Sketching for Residual Error Estimation for Matrix and Vector Norms [50.15964512954274]
線形スケッチを用いた行列とベクトルノルムの残差誤差推定問題について検討する。
これは、前作とほぼ同じスケッチサイズと精度で、経験的にかなり有利であることを示す。
また、スパースリカバリ問題に対して$Omega(k2/pn1-2/p)$低いバウンダリを示し、これは$mathrmpoly(log n)$ factorまで厳密である。
論文 参考訳(メタデータ) (2024-08-16T02:33:07Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - An Over-parameterized Exponential Regression [18.57735939471469]
LLM(Large Language Models)の分野での最近の発展は、指数的アクティベーション関数の使用への関心を喚起している。
ニューラル関数 $F: mathbbRd times m times mathbbRd times mathbbRd times mathbbRd times mathbbRd times mathbbRd times mathbbRd times mathbbRd times mathbbRdd
論文 参考訳(メタデータ) (2023-03-29T07:29:07Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Fast Graph Sampling for Short Video Summarization using Gershgorin Disc
Alignment [52.577757919003844]
高速グラフサンプリングの最近の進歩を利用して,短い動画を複数の段落に効率よく要約する問題について検討する。
実験結果から,本アルゴリズムは最先端の手法と同等の映像要約を実現し,複雑さを大幅に低減した。
論文 参考訳(メタデータ) (2021-10-21T18:43:00Z) - Algorithms and Hardness for Linear Algebra on Geometric Graphs [14.822517769254352]
グリーンガードとロークリンの有名な高速多重極法における次元$dの指数的依存は改善できないことを示す。
これは高速多重極法について証明された最初の公式な制限である。
論文 参考訳(メタデータ) (2020-11-04T18:35:02Z) - Phase Transitions in Rate Distortion Theory and Deep Learning [5.145741425164946]
もし$mathcalS$をエンコードするために$mathcalO(R-s)$のエラーを達成できれば、$mathcalS$は$s$で圧縮できると言う。
ある"ニッチ"信号クラスに対して、$mathcalS$が相転移を起こすことを示す。
論文 参考訳(メタデータ) (2020-08-03T16:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。