論文の概要: 3D-LMVIC: Learning-based Multi-View Image Coding with 3D Gaussian Geometric Priors
- arxiv url: http://arxiv.org/abs/2409.04013v2
- Date: Tue, 18 Mar 2025 08:54:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:11:18.782423
- Title: 3D-LMVIC: Learning-based Multi-View Image Coding with 3D Gaussian Geometric Priors
- Title(参考訳): 3D-LMVIC:3次元ガウス幾何学的事前情報を用いた学習型多視点画像符号化
- Authors: Yujun Huang, Bin Chen, Niu Lian, Baoyi An, Shu-Tao Xia,
- Abstract要約: 本稿では,新しい学習型マルチビュー画像圧縮フレームワークである3D-LMVICを提案する。
3D-LMVICは従来の手法と学習法の両方と比較して優れた性能を示す。
既存の2視点アプローチに比べて、差分推定精度が大幅に向上する。
- 参考スコア(独自算出の注目度): 42.27461884229915
- License:
- Abstract: Existing multi-view image compression methods often rely on 2D projection-based similarities between views to estimate disparities. While effective for small disparities, such as those in stereo images, these methods struggle with the more complex disparities encountered in wide-baseline multi-camera systems, commonly found in virtual reality and autonomous driving applications. To address this limitation, we propose 3D-LMVIC, a novel learning-based multi-view image compression framework that leverages 3D Gaussian Splatting to derive geometric priors for accurate disparity estimation. Furthermore, we introduce a depth map compression model to minimize geometric redundancy across views, along with a multi-view sequence ordering strategy based on a defined distance measure between views to enhance correlations between adjacent views. Experimental results demonstrate that 3D-LMVIC achieves superior performance compared to both traditional and learning-based methods. Additionally, it significantly improves disparity estimation accuracy over existing two-view approaches.
- Abstract(参考訳): 既存のマルチビュー画像圧縮法は、しばしば2次元プロジェクションに基づくビュー間の類似性に依存し、相違を推定する。
ステレオ画像のような小さな相違には有効であるが、これらの手法は、仮想現実や自律運転アプリケーションで一般的に見られる、広いベースラインのマルチカメラシステムで発生するより複雑な相違に対処する。
この制限に対処するために,3次元ガウススプラッティングを応用し,幾何学的事前推定を高精度に導出する,新しい学習ベース多視点画像圧縮フレームワークである3D-LMVICを提案する。
さらに、ビュー間の幾何学的冗長性を最小化する深度マップ圧縮モデルと、ビュー間の定義された距離尺度に基づく多視点シーケンス順序付け戦略を導入し、隣接するビュー間の相関性を高める。
実験の結果,3D-LMVICは従来の手法と学習法の両方と比較して優れた性能を示した。
さらに、既存の2視点アプローチに比べて、差分推定精度が大幅に向上する。
関連論文リスト
- F3D-Gaus: Feed-forward 3D-aware Generation on ImageNet with Cycle-Consistent Gaussian Splatting [35.625593119642424]
本稿では,モノケプラーデータセットから3次元認識を一般化する問題に取り組む。
画素整列型ガウススプラッティングに基づく新しいフィードフォワードパイプラインを提案する。
また、学習した3D表現において、クロスビューの一貫性を強制するために、自己教師付きサイクル一貫性制約を導入する。
論文 参考訳(メタデータ) (2025-01-12T04:44:44Z) - G-NeRF: Geometry-enhanced Novel View Synthesis from Single-View Images [45.66479596827045]
我々は,幾何誘導多視点合成手法により,幾何先行性を高めるための幾何強調型NeRF(G-NeRF)を提案する。
単一視点画像に対する多視点監視の欠如に対処するために,深度認識型トレーニングアプローチを設計する。
論文 参考訳(メタデータ) (2024-04-11T04:58:18Z) - MVD-Fusion: Single-view 3D via Depth-consistent Multi-view Generation [54.27399121779011]
本稿では,多視点RGB-D画像の生成モデルを用いて,単視点3次元推論を行うMVD-Fusionを提案する。
提案手法は,蒸留に基づく3D推論や先行多視点生成手法など,最近の最先端技術と比較して,より正確な合成を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-04T17:59:57Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - Multi-View Consistent Generative Adversarial Networks for 3D-aware Image
Synthesis [48.33860286920389]
3D認識画像合成は、3D表現を学習することにより、複数のビューからオブジェクトの画像を生成することを目的としている。
既存のアプローチには幾何学的制約がないため、通常はマルチビュー一貫性のある画像を生成することができない。
幾何制約付き高品質な3次元画像合成のためのマルチビュー一貫性ジェネレータネットワーク(MVCGAN)を提案する。
論文 参考訳(メタデータ) (2022-04-13T11:23:09Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。