論文の概要: Point Cloud Geometry Scalable Coding Using a Resolution and Quality-conditioned Latents Probability Estimator
- arxiv url: http://arxiv.org/abs/2502.14099v1
- Date: Wed, 19 Feb 2025 20:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:27:36.004308
- Title: Point Cloud Geometry Scalable Coding Using a Resolution and Quality-conditioned Latents Probability Estimator
- Title(参考訳): 分解能と品質条件付き遅延確率推定器を用いたポイントクラウド幾何スケーラブル符号化
- Authors: Daniele Mari, André F. R. Guarda, Nuno M. M. Rodrigues, Simone Milani, Fernando Pereira,
- Abstract要約: 本稿では、ディープラーニングベースのポイントクラウド(PC)コーディングのためのスケーラブルなコーディングソリューションの開発に焦点をあてる。
この3D表現の特徴は、ソフトウェアの他の機能を損なわない柔軟なソリューションの実装を困難にしている。
- 参考スコア(独自算出の注目度): 47.792286013837945
- License:
- Abstract: In the current age, users consume multimedia content in very heterogeneous scenarios in terms of network, hardware, and display capabilities. A naive solution to this problem is to encode multiple independent streams, each covering a different possible requirement for the clients, with an obvious negative impact in both storage and computational requirements. These drawbacks can be avoided by using codecs that enable scalability, i.e., the ability to generate a progressive bitstream, containing a base layer followed by multiple enhancement layers, that allow decoding the same bitstream serving multiple reconstructions and visualization specifications. While scalable coding is a well-known and addressed feature in conventional image and video codecs, this paper focuses on a new and very different problem, notably the development of scalable coding solutions for deep learning-based Point Cloud (PC) coding. The peculiarities of this 3D representation make it hard to implement flexible solutions that do not compromise the other functionalities of the codec. This paper proposes a joint quality and resolution scalability scheme, named Scalable Resolution and Quality Hyperprior (SRQH), that, contrary to previous solutions, can model the relationship between latents obtained with models trained for different RD tradeoffs and/or at different resolutions. Experimental results obtained by integrating SRQH in the emerging JPEG Pleno learning-based PC coding standard show that SRQH allows decoding the PC at different qualities and resolutions with a single bitstream while incurring only in a limited RD penalty and increment in complexity w.r.t. non-scalable JPEG PCC that would require one bitstream per coding configuration.
- Abstract(参考訳): 現代のユーザは、ネットワーク、ハードウェア、ディスプレイの能力において、非常に異種なシナリオでマルチメディアコンテンツを消費している。
この問題に対する単純な解決策は、複数の独立したストリームをエンコードすることであり、それぞれが、ストレージと計算要求の両方に明らかな負の影響を伴って、クライアントの異なる要件をカバーしている。
これらの欠点は、拡張性を可能にするコーデック、すなわち、複数の拡張レイヤを含むプログレッシブビットストリームを生成する機能を使用することで回避できる。
スケーラブルなコーディングは,従来のイメージコーデックやビデオコーデックではよく知られた機能だが,特にディープラーニングベースのポイントクラウド(PC)コーディングのためのスケーラブルなコーディングソリューションの開発において,新たな,まったく異なる問題に焦点を当てている。
この3D表現の特異性は、コーデックの他の機能を損なわないフレキシブルなソリューションの実装を困難にしている。
本稿では,従来のソリューションとは対照的に,異なるRDトレードオフおよび/または異なる解像度でトレーニングされたモデルを用いて得られた潜在値の関係をモデル化できる,スケーラブル解像度と品質ハイププライア(SRQH)という共同品質と解像度のスケーラビリティスキームを提案する。
新たなJPEG Pleno学習ベースのPCコーディング標準にSRQHを統合することで得られた実験結果から、SRQHは単一のビットストリームで異なる品質と解像度でPCをデコードできる一方で、RDペナルティの制限と複雑さの増大を伴っている。
関連論文リスト
- DeepFGS: Fine-Grained Scalable Coding for Learned Image Compression [27.834491128701963]
本稿では,DeepFGSと呼ばれる微細な画像圧縮フレームワークを提案する。
エントロピー符号化では,基本的特徴とスケーラブルな特徴の相関関係を網羅する相互エントロピーモデルを設計する。
実験の結果,提案したDeepFGSは,従来の学習ベースでスケーラブルな画像圧縮モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-11-30T11:19:38Z) - When Video Coding Meets Multimodal Large Language Models: A Unified Paradigm for Video Coding [118.72266141321647]
CMVC(Cross-Modality Video Coding)は、ビデオ符号化における多モード表現とビデオ生成モデルを探索する先駆的な手法である。
復号化の際には、以前に符号化されたコンポーネントとビデオ生成モデルを利用して複数の復号モードを生成する。
TT2Vは効果的な意味再構成を実現し,IT2Vは競争力のある知覚整合性を示した。
論文 参考訳(メタデータ) (2024-08-15T11:36:18Z) - HPC: Hierarchical Progressive Coding Framework for Volumetric Video [39.403294185116]
ニューラルレージアンスフィールド(NeRF)に基づくボリュームビデオは、様々な3Dアプリケーションに対して大きな可能性を秘めている。
現在のNeRF圧縮は、ビデオ品質を調整できる柔軟性に欠けており、様々なネットワークやデバイス能力のための単一のモデル内である。
単一モデルを用いて可変性を実現する新しい階層型プログレッシブビデオ符号化フレームワークであるHPCを提案する。
論文 参考訳(メタデータ) (2024-07-12T06:34:24Z) - Standard compliant video coding using low complexity, switchable neural wrappers [8.149130379436759]
標準互換性、高性能、低復号化の複雑さを特徴とする新しいフレームワークを提案する。
私たちは、標準的なビデオをラップして、異なる解像度でビデオをエンコードする、共同最適化されたニューラルプリプロセッサとポストプロセッサのセットを使用します。
我々は、異なるアップサンプリング比を処理できる低複雑性のニューラルポストプロセッサアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-07-10T06:36:45Z) - Compression-Realized Deep Structural Network for Video Quality Enhancement [78.13020206633524]
本稿では,圧縮ビデオの品質向上の課題に焦点をあてる。
既存の手法のほとんどは、圧縮コーデック内での事前処理を最適に活用するための構造設計を欠いている。
新しいパラダイムは、より意識的な品質向上プロセスのために緊急に必要である。
論文 参考訳(メタデータ) (2024-05-10T09:18:17Z) - Point Cloud Geometry Scalable Coding with a Quality-Conditioned Latents Probability Estimator [47.792286013837945]
品質のスケーラビリティは、ほとんどの学習ベースのPCコーディングソリューションの主要な要件である。
本稿では,SQH(Scalable Quality Hyperprior)という,学習ベースの静的点クラウド幾何コーデックに適応可能な品質拡張性スキームを提案する。
SQHは、対応する非スケーリングソリューションと比較して、非常に制限された、あるいは全く圧縮性能のペナルティのない、品質のスケーラビリティ機能を提供する。
論文 参考訳(メタデータ) (2024-04-11T12:44:15Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - CBANet: Towards Complexity and Bitrate Adaptive Deep Image Compression
using a Single Network [24.418215098116335]
CBANet(Complexity and Bitrate Adaptive Network)と呼ばれる新しいディープ画像圧縮フレームワークを提案する。
我々のCBANetは、動的計算複雑性制約の下での速度と歪みのトレードオフを考察している。
その結果、CBANetでは、計算複雑性の制約によって1つのシングルが複数のデコードをサポートできるようになった。
論文 参考訳(メタデータ) (2021-05-26T08:13:56Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。