論文の概要: Perceptual Quality Assessment of Trisoup-Lifting Encoded 3D Point Clouds
- arxiv url: http://arxiv.org/abs/2410.06689v1
- Date: Sat, 19 Oct 2024 01:25:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 04:19:50.079756
- Title: Perceptual Quality Assessment of Trisoup-Lifting Encoded 3D Point Clouds
- Title(参考訳): トリソアップリフティング符号化3次元点雲の知覚的品質評価
- Authors: Juncheng Long, Honglei Su, Qi Liu, Hui Yuan, Wei Gao, Jiarun Song, Zhou Wang,
- Abstract要約: no-reference bitstream-layer point cloud quality Assessmentは、任意のネットワークノードで完全にデコードすることなく、リアルタイムな品質監視を実現することができる。
完全復号化なしでビットストリームを解析することにより,トリソープ・リフティング3次元点群を符号化するPCQAモデルを開発した。
- 参考スコア(独自算出の注目度): 18.92336771285304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: No-reference bitstream-layer point cloud quality assessment (PCQA) can be deployed without full decoding at any network node to achieve real-time quality monitoring. In this work, we develop the first PCQA model dedicated to Trisoup-Lifting encoded 3D point clouds by analyzing bitstreams without full decoding. Specifically, we investigate the relationship among texture bitrate per point (TBPP), texture complexity (TC) and texture quantization parameter (TQP) while geometry encoding is lossless. Subsequently, we estimate TC by utilizing TQP and TBPP. Then, we establish a texture distortion evaluation model based on TC, TBPP and TQP. Ultimately, by integrating this texture distortion model with a geometry attenuation factor, a function of trisoupNodeSizeLog2 (tNSL), we acquire a comprehensive NR bitstream-layer PCQA model named streamPCQ-TL. In addition, this work establishes a database named WPC6.0, the first and largest PCQA database dedicated to Trisoup-Lifting encoding mode, encompassing 400 distorted point clouds with both 4 geometric multiplied by 5 texture distortion levels. Experiment results on M-PCCD, ICIP2020 and the proposed WPC6.0 database suggest that the proposed streamPCQ-TL model exhibits robust and notable performance in contrast to existing advanced PCQA metrics, particularly in terms of computational cost. The dataset and source code will be publicly released at \href{https://github.com/qdushl/Waterloo-Point-Cloud-Database-6.0}{\textit{https://github.com/qdushl/Waterloo-Point-Cloud-Database-6.0}}
- Abstract(参考訳): no-reference bitstream-layer point cloud quality Assessment (PCQA) は、任意のネットワークノードで完全にデコードすることなく、リアルタイムな品質監視を実現することができる。
本研究では,Trisoup-Liftingエンコードされた3Dポイントクラウド専用のPCQAモデルを開発した。
具体的には,テクスチャビットレート/ポイント(TBPP),テクスチャ複雑性(TC),テクスチャ量子化パラメータ(TQP)の関係について検討する。
その後,TQPとTBPPを用いてTQPを推定した。
そこで我々は,TC,TBPP,TQPに基づくテクスチャ歪み評価モデルを構築した。
最終的に、このテクスチャ歪みモデルと幾何学減衰係数(tNSL)とを統合することにより、ストリームPCQ-TLと呼ばれるNRビットストリーム層PCQAモデルを得る。
さらに、この研究は、Trisoup-Liftingエンコーディングモード専用の最初の最大かつ最大のPCQAデータベースであるWPC6.0というデータベースを確立する。
M-PCCD、ICIP2020、提案したWPC6.0データベースの実験結果から、提案したストリームPCQ-TLモデルは、特に計算コストの観点から、既存のPCQAメトリクスとは対照的に、堅牢で顕著な性能を示すことが示唆された。
データセットとソースコードは \href{https://github.com/qdushl/Waterloo-Point-Cloud-Database-6.0}{\textit{https://github.com/qdushl/Waterloo-Point-Cloud-Database-6.0}} で公開される。
関連論文リスト
- No-Reference Point Cloud Quality Assessment via Graph Convolutional Network [89.12589881881082]
3次元(3D)ポイントクラウドは、新しいビジュアルメディアフォーマットとして、消費者にますます好まれている。
ポイントクラウドは、必然的に、マルチメディア通信システムによる品質劣化と情報損失に悩まされる。
マルチビュー2次元投影画像の相互依存関係を特徴付けるために,GCN(Graph Convolutional Network)を用いた新しい非参照PCQA手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T11:39:05Z) - SPAC: Sampling-based Progressive Attribute Compression for Dense Point Clouds [51.313922535437726]
本研究では,高密度点雲のエンドツーエンド圧縮法を提案する。
提案手法は,周波数サンプリングモジュール,適応スケール特徴抽出モジュール,幾何支援モジュール,大域的ハイパープライアエントロピーモデルを組み合わせた。
論文 参考訳(メタデータ) (2024-09-16T13:59:43Z) - Hierarchical Prior-based Super Resolution for Point Cloud Geometry
Compression [39.052583172727324]
幾何学に基づくポイントクラウド圧縮(G-PCC)は、ポイントクラウドを圧縮するために移動画像専門家グループによって開発された。
本稿では,点雲幾何学的圧縮のための階層的事前分解能超解法を提案する。
論文 参考訳(メタデータ) (2024-02-17T11:15:38Z) - Activating Frequency and ViT for 3D Point Cloud Quality Assessment
without Reference [0.49157446832511503]
与えられた3D-PCの非参照品質指標を提案する。
入力属性を品質スコアにマップするには、Deformable Convolutional Network(DCN)とViT(ViT)を組み合わせた軽量ハイブリッドディープモデルを用いる。
その結果,本手法は現在のNR-PCQA測度やPointXRのFR-PCQAよりも優れていた。
論文 参考訳(メタデータ) (2023-12-10T19:13:34Z) - Simple Baselines for Projection-based Full-reference and No-reference
Point Cloud Quality Assessment [60.2709006613171]
投影型ポイントクラウド品質評価(PCQA)のための簡易ベースラインを提案する。
我々は、全参照(FR)タスクと非参照(NR)PCQAタスクの両方に対して、点雲から共通立方体状の投影プロセスによって得られる多重射影を用いる。
ICIP 2023 PCVQA Challengeに参加して,5トラック中4トラックで首位を獲得した。
論文 参考訳(メタデータ) (2023-10-26T04:42:57Z) - No-Reference Point Cloud Quality Assessment via Weighted Patch Quality
Prediction [19.128878108831287]
地域相関分析機能を備えた非参照点雲質評価法(NR-PCQA)を提案する。
具体的には、ポイントクラウドをパッチに分割し、各パッチのテクスチャと構造機能を生成し、パッチ品質を予測するためにそれらをパッチ機能に融合させました。
実験の結果,提案手法はNR-PCQA法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-13T03:20:33Z) - GQE-Net: A Graph-based Quality Enhancement Network for Point Cloud Color
Attribute [51.4803148196217]
本稿では,点雲の色歪みを低減するため,グラフベースの品質向上ネットワーク(GQE-Net)を提案する。
GQE-Netは、幾何学情報を補助入力とグラフ畳み込みブロックとして使用し、局所的な特徴を効率的に抽出する。
実験結果から,本手法は最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2023-03-24T02:33:45Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Reduced Reference Perceptual Quality Model and Application to Rate
Control for 3D Point Cloud Compression [61.110938359555895]
レート歪み最適化では、ビットレートの制約を受ける再構成品質尺度を最大化してエンコーダ設定を決定する。
本稿では,V-PCC幾何および色量化パラメータを変数とする線形知覚品質モデルを提案する。
400個の圧縮された3D点雲による主観的品質試験の結果,提案モデルが平均評価値とよく相関していることが示唆された。
また、同じ目標ビットレートに対して、提案モデルに基づくレート歪みの最適化は、ポイント・ツー・ポイントの客観的な品質指標による徹底的な探索に基づくレート歪みの最適化よりも高い知覚品質を提供することを示した。
論文 参考訳(メタデータ) (2020-11-25T12:42:02Z) - Multiscale Point Cloud Geometry Compression [29.605320327889142]
本稿では,3次元ポイント・クラウド・ジオメトリを階層的に再構築するマルチスケール・ツー・エンド・ラーニング・フレームワークを提案する。
このフレームワークは、ポイントクラウド圧縮と再構成のためのスパース畳み込みベースのオートエンコーダの上に開発されている。
論文 参考訳(メタデータ) (2020-11-07T16:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。