論文の概要: Auto-Weighted Layer Representation Based View Synthesis Distortion
Estimation for 3-D Video Coding
- arxiv url: http://arxiv.org/abs/2201.02420v1
- Date: Fri, 7 Jan 2022 12:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-10 15:38:44.513846
- Title: Auto-Weighted Layer Representation Based View Synthesis Distortion
Estimation for 3-D Video Coding
- Title(参考訳): 自動重み付け層表現に基づく3次元映像符号化のためのビュー合成歪み推定
- Authors: Jian Jin, Xingxing Zhang, Lili Meng, Weisi Lin, Jie Liang, Huaxiang
Zhang, Yao Zhao
- Abstract要約: 本稿では,自動重み付け層表現に基づくビュー合成歪み推定モデルを提案する。
提案手法は, 精度, 効率の両面において, 最先端の手法よりも優れている。
- 参考スコア(独自算出の注目度): 78.53837757673597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, various view synthesis distortion estimation models have been
studied to better serve for 3-D video coding. However, they can hardly model
the relationship quantitatively among different levels of depth changes,
texture degeneration, and the view synthesis distortion (VSD), which is crucial
for rate-distortion optimization and rate allocation. In this paper, an
auto-weighted layer representation based view synthesis distortion estimation
model is developed. Firstly, the sub-VSD (S-VSD) is defined according to the
level of depth changes and their associated texture degeneration. After that, a
set of theoretical derivations demonstrate that the VSD can be approximately
decomposed into the S-VSDs multiplied by their associated weights. To obtain
the S-VSDs, a layer-based representation of S-VSD is developed, where all the
pixels with the same level of depth changes are represented with a layer to
enable efficient S-VSD calculation at the layer level. Meanwhile, a nonlinear
mapping function is learnt to accurately represent the relationship between the
VSD and S-VSDs, automatically providing weights for S-VSDs during the VSD
estimation. To learn such function, a dataset of VSD and its associated S-VSDs
are built. Experimental results show that the VSD can be accurately estimated
with the weights learnt by the nonlinear mapping function once its associated
S-VSDs are available. The proposed method outperforms the relevant
state-of-the-art methods in both accuracy and efficiency. The dataset and
source code of the proposed method will be available at
https://github.com/jianjin008/.
- Abstract(参考訳): 近年,3次元映像符号化のための様々なビュー合成歪み推定モデルが研究されている。
しかし、これらは、速度歪みの最適化とレートアロケーションに不可欠である、深さ変化、テクスチャ変性、ビュー合成歪み(VSD)の異なるレベルの関係を定量的にモデル化することは困難である。
本稿では,自己重み付け層表現に基づくビュー合成歪推定モデルを開発した。
第一に、サブVSD(S-VSD)は、深さ変化のレベルと関連するテクスチャ変性に基づいて定義される。
その後、理論上の導出により、VSDはS-VSDにほぼ分解され、関連する重みによって乗算されることを示した。
S−VSDを得るために、S−VSDの層ベース表現を開発し、この層レベルでの効率的なS−VSD計算を実現するために、同じ深さ変化のすべての画素を層で表現する。
一方、非線形写像関数はVSDとS-VSDの関係を正確に表現し、VSD推定中に自動的にS-VSDの重みを与える。
そのような機能を学ぶために、VSDとその関連S-VSDのデータセットを構築する。
実験の結果,S-VSDが利用可能になると,VSDは非線形マッピング関数によって学習された重みで正確に推定できることがわかった。
提案手法は, 精度と効率の両方において, 関連する最先端手法を上回っている。
提案手法のデータセットとソースコードはhttps://github.com/jianjin008/で入手できる。
関連論文リスト
- Semantic Score Distillation Sampling for Compositional Text-to-3D Generation [28.88237230872795]
テキスト記述から高品質な3Dアセットを生成することは、コンピュータグラフィックスと視覚研究において重要な課題である。
本稿では,合成テキストから3D生成までの表現性と精度の向上を目的とした新しいSDS手法を提案する。
我々のアプローチは、異なるレンダリングビュー間の一貫性を維持する新しいセマンティック埋め込みを統合する。
明示的な意味指導を活用することで,既存の事前学習拡散モデルの構成能力を解き放つ。
論文 参考訳(メタデータ) (2024-10-11T17:26:00Z) - DreamMapping: High-Fidelity Text-to-3D Generation via Variational Distribution Mapping [20.7584503748821]
SDS (Score Distillation Sampling) はテキストから3D生成の一般的な技術として登場し、テキストから2Dのガイダンスからビュー依存情報を蒸留することで3Dコンテンツ作成を可能にする。
我々は、SDSの徹底的な解析を行い、その定式化を洗練し、中心となる設計はレンダリングされた画像の分布をモデル化することである。
本稿では,分散に基づく生成の劣化事例として,画像の描画を考慮し,分散モデリングプロセスの迅速化を図る,変分分布マッピング (VDM) という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-08T14:04:48Z) - Optimizing 3D Gaussian Splatting for Sparse Viewpoint Scene Reconstruction [11.840097269724792]
3D Gaussian Splatting (3DGS)は3Dシーン表現の有望なアプローチとして登場し、Neural Radiance Fields (NeRF)と比較して計算オーバーヘッドの低減を実現している。
SVS-GSは,3次元ガウス平滑化フィルタを統合して人工物を抑制する,スパースビューポイントシーン再構築のための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-09-05T03:18:04Z) - SDL-MVS: View Space and Depth Deformable Learning Paradigm for Multi-View Stereo Reconstruction in Remote Sensing [12.506628755166814]
マルチビューステレオタスクにおける変形性学習手法を再検討し、ビュースペースと深さ変形性学習(SDL-MVS)に基づく新しいパラダイムを提案する。
我々のSDL-MVSは、異なる視点空間における特徴の変形可能な相互作用を学習し、高精度な深さ推定を可能にするために、深さ範囲と間隔を変形的にモデル化することを目的としている。
LuoJia-MVSとWHUデータセットの実験により、我々のSDL-MVSが最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2024-05-27T12:59:46Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - Consistent3D: Towards Consistent High-Fidelity Text-to-3D Generation with Deterministic Sampling Prior [87.55592645191122]
スコア蒸留サンプリング(SDS)とその変種は、テキスト・ツー・3D世代の発展を大幅に加速させたが、幾何崩壊やテクスチャの低下に弱い。
テキストから3D生成に先立ってODE決定論的サンプリングを探索する新しい「一貫性3D」手法を提案する。
実験により,高忠実で多様な3Dオブジェクトと大規模シーンの生成にConsistent3Dの有効性が示された。
論文 参考訳(メタデータ) (2024-01-17T08:32:07Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Stable View Synthesis [100.86844680362196]
安定ビュー合成(SVS)について紹介する。
SVSは、自由に分散された視点からシーンを描写するソースイメージのセットを与えられた場合、シーンの新たなビューを合成する。
SVSは3つの異なる実世界のデータセットに対して定量的かつ質的に、最先端のビュー合成手法より優れている。
論文 参考訳(メタデータ) (2020-11-14T07:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。